Skip to main content

Rischi dell’IA nel 2025: l’autodiagnosi di cui non fidarsi

25 Settembre 2025
ChatGPT e i rischi dell’autodiagnosi online: il caso estremo dell’uomo che ha sostituito il sale con bromuro di sodio. Un avvertimento sui pericoli del fai-da-te digitale.

Negli ultimi anni, l’intelligenza artificiale è entrata con prepotenza nella vita quotidiana di milioni di persone. Tra gli strumenti più utilizzati c’è ChatGPT, il chatbot sviluppato da OpenAI, usato non solo per lavoro o studio, ma anche per ricevere consigli personali e perfino di salute. Una pratica che può sembrare innocua ma che, come dimostra una vicenda riportata dal Corriere della Sera e rilanciata da Sky TG24, può trasformarsi in un rischio concreto.

Un uomo di 60 anni ha infatti seguito alla lettera un’indicazione ottenuta tramite ChatGPT, arrivando a sostituire il sale da cucina con bromuro di sodio, convinto che fosse un’alternativa salutare. Il risultato? Una grave intossicazione cronica, culminata con il ricovero ospedaliero e sintomi psicotici, paranoie e allucinazioni.

Questo episodio mette in luce non solo i limiti dell’IA, ma anche la pericolosità del “fai da te digitale” quando si parla di alimentazione e salute.

ChatGPT e l’illusione dei consigli personalizzati

Secondo Sam Altman, CEO di OpenAI, gran parte degli utenti che si affidano a ChatGPT per consigli di vita appartiene alle fasce più giovani, tra i 20 e i 30 anni. Tuttavia, il caso dell’uomo sessantenne dimostra che l’attrattiva dell’IA riguarda tutte le età.

Alla domanda “come sostituire il sale?”, l’IA ha risposto con “bromuro di sodio”. Una sostanza reale, sì, ma destinata a tutt’altri usi, principalmente industriali, e assolutamente inadatta all’alimentazione.

Qui emerge il nodo centrale: l’ambiguità delle risposte AI. ChatGPT non ha esplicitato i rischi o l’inadeguatezza della sostanza, e l’utente ha preso l’informazione come un suggerimento pratico da applicare in cucina.

Bromuro di sodio: un veleno nascosto nella dieta quotidiana

Il bromuro di sodio non è un ingrediente alimentare. È un composto chimico che, se ingerito, può provocare gravi conseguenze.

Nel caso riportato, l’assunzione quotidiana ha portato a una intossicazione cronica da bromismo in soli tre mesi, condizione che sembrava relegata ai libri di storia della medicina. All’inizio del Novecento, infatti, i bromuri venivano usati come sedativi e anticonvulsivanti, ma furono presto abbandonati a causa dei pesanti effetti collaterali: allucinazioni, paranoia, disturbi della memoria e alterazioni cognitive.

I sintomi del paziente furono così gravi da spingerlo a credere che un vicino di casa lo stesse avvelenando, fino a un episodio psicotico acuto.

L’uomo è stato ricoverato per tre settimane e sottoposto a cure con farmaci antipsicotici, che gli hanno permesso di ristabilirsi.

Il caso, pubblicato su Annals of Internal Medicine: Clinical Cases, rappresenta un campanello d’allarme: un uso improprio dell’IA può avere conseguenze concrete, soprattutto quando si tratta di salute e alimentazione.

I rischi del “fai da te digitale”

Questa vicenda mostra i rischi del ricorso all’IA (o a internet in generale) per cercare scorciatoie in ambiti delicati come medicina e nutrizione.

Il fai da te digitale è rischioso perché:

  1. Le risposte dell’IA sono ambigue: si basano su modelli linguistici, non su valutazioni cliniche.
  2. Manca la personalizzazione: un nutrizionista valuta la storia clinica e lo stile di vita, un chatbot no.
  3. Si rischiano interpretazioni errate: ciò che è spiegazione teorica può essere scambiato per consiglio pratico.
  4. C’è un’illusione di autorevolezza: un testo ben scritto può sembrare affidabile anche se non lo è.

Come utilizzare ChatGPT senza rischi

L’intelligenza artificiale rimane uno strumento straordinario, ma va usata con consapevolezza. Alcune regole semplici possono ridurre i rischi:

  • Non chiedere mai a ChatGPT diagnosi mediche o piani alimentari pratici.
  • Usare l’IA solo come spunto per approfondimenti generali.
  • Verificare sempre le informazioni con fonti scientifiche affidabili.
  • Rivolgersi a medici, nutrizionisti o dietologi per questioni di salute.

Il caso del bromuro di sodio solleva anche un tema più ampio: quello della responsabilità.

Da un lato, gli sviluppatori hanno il compito di migliorare i sistemi di sicurezza dei chatbot e chiarire i limiti dell’IA. Dall’altro, gli utenti devono capire che nessuna intelligenza artificiale può sostituire l’esperienza e la competenza di un professionista qualificato.

Come evidenziato dallo studio pubblicato su Annals of Internal Medicine, il problema non è lo strumento in sé, ma l’uso che se ne fa. L’IA può essere utile, ma non è un medico.

La lezione è chiara: per la salute, meglio evitare il fai da te digitale e rivolgersi sempre a professionisti qualificati. Solo così strumenti creati per aiutare non si trasformeranno, paradossalmente, in una minaccia per la nostra vita.