Un uomo si avvelena accidentalmente dopo aver seguito una dieta consigliata da ChatGPT che gli ha provocato allucinazioni

Pubblicato: | Aggiornato:
Un uomo di Washington si è avvelenato accidentalmente dopo aver seguito una dieta ideata daChatGPT .
L'uomo, di 60 anni, di cui non è stato reso noto il nome, si è precipitato al pronto soccorso locale con il sospetto che il suo vicino lo stesse avvelenando.
Circa un giorno dopo il ricovero in ospedale, soffrì anche di paranoia e allucinazioni e tentò di fuggire dall'ospedale.
In seguito l'uomo rivelò di avere diverse restrizioni alimentari, tra cui distillare la propria acqua e seguire una dieta vegetariana "estremamente restrittiva".
Dopo aver letto dei danni del cloruro di sodio, o sale da cucina, ha raccontato ai medici di aver chiesto a ChatGPT di eliminarlo dalla sua dieta.
A quanto pare, il chatbot gli ha consigliato di sostituire il sale con il bromuro di sodio, un farmaco usato come sedativo all'inizio del XX secolo e ora presente negli anticonvulsivanti per cani e umani.
Finì per seguire questa raccomandazione per tre mesi e alla fine sviluppò il bromismo, ovvero l'avvelenamento da bromuro.
Il bromuro può accumularsi nell'organismo e compromettere la funzionalità nervosa, una condizione chiamata bromismo. Questo provoca confusione, perdita di memoria, ansia, deliri, eruzioni cutanee e acne, di cui soffriva anche l'uomo.
Un uomo a Washington si è avvelenato con il bromuro seguendo le raccomandazioni di ChatGPT (immagine di repertorio)
I medici che avevano in cura l'uomo, dell'Università di Washington a Seattle, hanno ripetuto la sua ricerca e hanno ricevuto lo stesso consiglio errato.
Hanno avvertito che il caso ha evidenziato "come l'uso dell'intelligenza artificiale possa potenzialmente contribuire allo sviluppo di effetti negativi sulla salute prevenibili".
Hanno affermato che ChatGPT e altri chatbot potrebbero "generare inesattezze scientifiche, non essere in grado di discutere criticamente i risultati e, in ultima analisi, alimentare la diffusione di disinformazione".
Lo studio di caso anonimo, pubblicato all'inizio di questo mese su Annals of Internal Medicine , arriva una settimana dopo che OpenAI ha affermato che uno dei più recenti aggiornamenti del chatbot potrebbe essere più efficace nel rispondere a domande relative alla salute e nel "segnalare potenziali problemi".
Tuttavia, le linee guida di ChatGPT affermano che non è "destinato all'uso nella diagnosi o nel trattamento di alcuna condizione di salute".
Sembra che il paziente avesse una versione precedente del software.
Dopo aver tentato di fuggire dall'ospedale, l'uomo è stato sottoposto a ricovero psichiatrico obbligatorio e gli sono state somministrate grandi quantità di liquidi ed elettroliti per aiutarlo a espellere il bromuro dal suo organismo.
Il suo livello di bromuro era di 1.700 mg/L, mentre il range normale è compreso tra 0,9 e 7,3 mg/L.
Il bromuro veniva utilizzato come sedativo nel XIX e XX secolo ed era un tempo ampiamente diffuso nei farmaci da prescrizione e da banco. Tuttavia, man mano che la ricerca ne evidenziava il rischio di esposizione cronica, le autorità di regolamentazione iniziarono gradualmente a rimuoverlo dalla distribuzione farmaceutica statunitense.
Di conseguenza, oggi i casi restano pochi e sporadici.
L'uomo ha anche dichiarato di distillare la propria acqua e di seguire una dieta vegetariana "estremamente restrittiva" (immagine di repertorio)
Il caso di studio arriva dopo che OpenAI ha affermato che uno dei più recenti aggiornamenti del chatbot potrebbe essere più efficace nel rispondere a domande relative alla salute e nel "segnalare potenziali preoccupazioni".
L'uomo ha riferito di soffrire di acne e piccole escrescenze rosse sulla pelle, insonnia, stanchezza, problemi di coordinazione muscolare e sete eccessiva.
Ci vollero tre settimane prima che i livelli di bromuro si stabilizzassero e che gli venissero sospesi gradualmente i farmaci psichiatrici, prima che potesse essere dimesso.
I medici che lo hanno in cura hanno scritto: "Sebbene sia uno strumento con un grande potenziale per creare un ponte tra gli scienziati e la popolazione non accademica, l'intelligenza artificiale comporta anche il rischio di diffondere informazioni decontestualizzate.
"È altamente improbabile che un esperto medico abbia menzionato il bromuro di sodio di fronte a un paziente in cerca di un valido sostituto del cloruro di sodio."
Hanno inoltre sottolineato che "con l'aumento dell'uso di strumenti di intelligenza artificiale, i fornitori dovranno tenerne conto quando effettueranno lo screening per individuare dove i loro pazienti fruiscono delle informazioni sanitarie".
Daily Mail