Interrogare l'intelligenza artificiale sulla salute è utile o rischioso?

1 ora fa 1

Due ricerche, una di Oxford e una della Duke University, hanno studiato i rischi e le possibilità dei chatbot che danno pareri medici su migliaia di conversazioni. Scoprendo che...

Eugenio Spagnuolo

23 marzo - 18:04 - MILANO

Più di 230 milioni di persone ogni anno interpellano un chatbot AI per un problema di salute. Sintomi, dosaggi, persino diagnosi da confermare: la tentazione è comprensibile, specie in Paesi (come gli USA) dove una visita medica può costare quanto uno stipendio. Ma quanto può sbagliare l'intelligenza artificiale in medicina e in quali casi può invece aiutarci? Due studi recenti, di Oxford e della Duke University, hanno cercato di rispondere, testando i chatbot su scenari clinici reali. 

 quale futuro per la telemedicina e la teleriabilitazione?

Diagnosi errate

—  

Il primo studio ha coinvolto 1.300 partecipanti: metà di loro ha cercato consigli attraverso modelli linguistici come ChatGPT, l'altra ha usato fonti tradizionali (libri, internet, amici ecc). Il risultato: i modelli AI non hanno prodotto esiti migliori rispetto a una normale ricerca o al buon senso del singolo. "Nonostante l'entusiasmo, l'AI non è ancora pronta a fare il medico", ammette Rebecca Payne, responsabile dello studio. "E i pazienti devono sapere che chiedere a un modello linguistico informazioni sui propri sintomi può anche essere pericoloso: può produrre diagnosi errate e non riconoscere quando è necessario un intervento urgente". Il problema non è solo tecnico. Spesso l'AI non capisce cosa gli viene chiesto e l'utente non sa come fornirgli le informazioni giuste. Questa incomprensione reciproca riduce la probabilità di ricevere un consiglio appropriato.

Adam Mahdi, co-autore dello studio, parla di "campanello d'allarme" per sviluppatori e regolatori: "Non possiamo affidarci solo a test standardizzati per stabilire se questi sistemi sono sicuri per l'uso pubblico. Proprio come richiediamo sperimentazioni cliniche per i farmaci, l'intelligenza artificiale ha bisogno di test rigorosi con utenti reali, per capirne le capacità in contesti ad alto rischio come la salute".

Preparati ma inesperti 

—  

 Dall'altra parte, alla Duke University, Monica Agrawal, docente di bio-statistica, ha costruito HealthChat-11K, un archivio di 11.000 scambi reali su 21 specialità mediche, e ha scoperto che l'intelligenza artificiale può dare risposte tecnicamente corrette ma clinicamente inappropriate, perché mancano di contesto. La maggior parte dei modelli linguistici viene addestrata con test standardizzati (tipo universitari), mentre i pazienti reali pongono quesiti emotivi, tendenziosi, a volte rischiosi. A complicare le cose c'è, poi, una caratteristica strutturale dei chatbot: la tendenza a compiacerci. "Il loro obiettivo è dare una risposta che piaccia all'utente", precisa Agrawal. "Alle persone piacciono le AI che le accontentano, così i chatbot non tendono a contraddirci". In uno dei casi analizzati, per esempio, un utente ha chiesto come eseguire a casa una procedura medica: il chatbot ha avvertito correttamente che andava eseguita solo da professionisti, ma poi ha fornito le istruzioni per farlo passo dopo passo. Un medico avrebbe chiuso la conversazione al primo punto.

"Quando un paziente fa una domanda, noi medici leggiamo tra le righe per capire cosa sta chiedendo davvero", precisa Il chirurgo Ayman Ali, che collabora con Agrawal. "Siamo addestrati a interrogare il contesto. Le AI no". Tutto da buttare, insomma? Affatto: Ali incoraggia l'uso dei chatbot, ma a una condizione: qualsiasi informazione significativa va  verificata con chi ha competenza specifica prima di agire. Una strategia che funziona, secondo i ricercatori, per esempio, è usare il chatbot per farsi spiegare fonti affidabili già identificate, come le linee guida su una malattia, piuttosto che per generare consigli terapeutici autonomi. Agrawal stessa, che studia i rischi di questi strumenti per lavoro, ha ammesso di averli usati durante la gravidanza per risposte rapide prima della prima visita: "Mi piace pensarlo come un primo passo, non come una risposta definitiva".

Cattivi consigli

—  

Intanto un'indagine, pubblicata a settembre 2025 ha rilevato che più di un americano su cinque ha seguito un consiglio medico fornito da un chatbot che si è poi rivelato sbagliato. E uno studio del giugno 2025 ha dimostrato che, programmandoli, è possibile portare i modelli linguistici a fornire informazioni errate con sicurezza nell'88% dei casi. "Se questi sistemi possono essere manipolati per produrre consigli falsi o fuorvianti", ha scritto Natansh Modi dell'Università del Sudafrica, "possono diventare un vettore di disinformazione più difficile da rilevare, da regolare e più persuasivo di qualsiasi altro visto finora".

Leggi l’intero articolo