Media, l'IA della Fda americana vittima di 'allucinazioni'

Un nuovo chatbot utilizzato dalla Food and Drug Administration (Fda) degli Stati Uniti produrrebbe risultati errati, le cosiddette "allucinazioni" a cui vanno incontro i modelli di intelligenza artificiale generativa. Lo afferma un report della Cnn, a seguito di vari colloqui con dipendenti attuali ed ex dell'agenzia.
Tra le varie risposte fornire da Elsa, il chatbot presentato dalla Fda il mese scorso, anche attribuzioni fuorvianti sulle classi di farmaci idonee ai bambini o etichettate per determinati utilizzi. "In entrambi i casi, l'IA ha restituito risposte sbagliate" scrive la Cnn. Elsa avrebbe anche travisato studi scientifici reali e inventato ricerche mai svolte.
"L'intelligenza artificiale dovrebbe farci risparmiare tempo", ha detto un dipendente alla Cnn, "ma vi garantisco che ne spreco più di prima proprio per la maggiore vigilanza che devo avere". In seguito all'articolo della testata, la Fda ha precisato che l'utilizzo del chatbot è ancora sperimentale e su base volontaria.
Un portavoce dell'agenzia ha sottolineato al sito Engadget che "le informazioni fornite dalla Fda alla Cnn sono state travisate e decontestualizzate", sottolineando le conversazioni con "ex dipendenti e personale che non ha mai utilizzato la versione attuale di Elsa".
ansa