Non è l’AI il problema: lo sono le nostre aspettative
Siamo alle solite. Clima da inquisizione sulla AI in sanità.
Leggi certi commenti dove il copione è sempre lo stesso: “Gli LLM potrebbero ridurre il carico di lavoro dei medici e migliorare la comunicazione… ma…”
E dopo quel “ma” parte la lista della spesa:
gli studi sono metodologicamente deboli, spesso senza braccio di controllo;
i pazienti abbandonano gli strumenti;
gli strumenti non sono registrati come dispositivi medici, quindi “non si possono usare in clinica”.
Tutto vero? In parte sì. Ma raccontato così è fuorviante.
Se nel 2025 fai una revisione sugli LLM in sanità e ti stupisci che gli studi siano piccoli, eterogenei e non perfetti… il problema non è l’AI, sono le tue aspettative: è normale che una tecnologia emergente parta con studi esplorativi, proof-of-concept, piloti locali.
Lo sappiamo tutti che qualunque app di salute digitale ha problemi di aderenza.
Non è “colpa dell’LLM”: è design, integrazione nei percorsi, motivazioni, follow-up. Prendere questo dato come prova contro l’AI è, nella migliore delle ipotesi, ingenuo. Nella peggiore, intellettualmente disonesto.
Sul fatto che gli strumenti non siano registrati come dispositivi medici: anche qui, non scopriamo nulla. La regolazione sta rincorrendo la tecnologia, le categorie normative sono in ritardo, e molti progetti sono ancora in fase sperimentale. Questo non significa che “non si possano usare”: significa che vanno progettati, valutati e regolati seriamente, non spacciati come gadget né demonizzati.
Da qui nasce il messaggio implicito:
“Ad oggi, lasciamo perdere. Tanto non funziona / non è pronto / è pericoloso.”
Nel frattempo, nel mondo reale:
molti medici usano già LLM ogni giorno per documentazione, sintesi, comunicazione col paziente;
progetti seri lavorano proprio nella direzione indicata dalle revisioni: validazione prospettica, metriche chiare, audit, supervisione umana.
La vera responsabilità non è ripetere “servono più studi” come un mantra, ma sporcarsi le mani:
definire gli use-case giusti
progettare gli studi giusti
integrare l’AI nei processi reali con governance, audit e controllo clinico
Ecco, io la vedo al contrario:
gli studi imperfetti non dimostrano che l’AI “non funziona”: dimostrano che siamo in una fase iniziale e dobbiamo alzare il livello
la scarsa aderenza non è una condanna della tecnologia, ma un problema di design e implementazione;
l’assenza di registrazioni come device è un invito a costruire percorsi regolatori chiari, non a bloccare tutto
Abbiamo bisogno di clinici, ricercatori e sviluppatori che usano le evidenze, anche quelle imperfette, per costruire la prossima generazione di strumenti AI clinici, validati, regolati e utili davvero. Non è una crociata pro-tech: è solo guardare i dati con onestà!
E l’AI in sanità, che piaccia o no, non è una moda: è già sul tavolo del medico.
La scelta è solo se vogliamo governarla con serietà o limitarci a ripetere “non ci sono abbastanza evidenze” …guardandola passare.


