<![CDATA[ Desinformação gerada por IA dispara em junho ]]>
![<![CDATA[ Desinformação gerada por IA dispara em junho ]]>](/_next/image?url=https%3A%2F%2Fcdn.cmjornal.pt%2Fimages%2F2024-06%2Fimg_1280x721uu2024-06-11-16-01-28-1677955.jpg&w=1920&q=100)
Gli 11 chatbot più popolari a disposizione degli utenti hanno diffuso false affermazioni nel 40% dei casi.
La disinformazione diffusa dai principali strumenti di intelligenza artificiale (IA) generativa, come ChatGPT-4 (OpenAI), Grok (xAI), Claude (Anthropic) e Gemini (Google), è aumentata dal 24% di maggio al 40% di giugno scorso. Secondo un rapporto di NewsGuard, un'organizzazione specializzata in sicurezza informatica, l'area più sensibile è stata quella delle ricerche relative alle ultime notizie.
Lo studio pubblicato ieri, 10 giugno, indica che durante il mese di giugno, gli 11 principali chatbot AI (assistenti virtuali che utilizzano l'intelligenza artificiale e la programmazione per produrre testo) hanno diffuso dichiarazioni false nel 28,49% dei casi e hanno offerto una mancata risposta nell'11,51% dei casi, il che significa un tasso molto vicino al 40% e un netto aumento rispetto al 24% rilevato a maggio.
" L'ondata di eventi di cronaca di alto profilo del giugno 2025, tra cui lo scoppio della guerra tra Israele e Iran, i dibattiti al Congresso degli Stati Uniti e la guerra in Ucraina, ha portato a un'alta percentuale di informazioni false ripetute dai chatbot basati sull'intelligenza artificiale ", si legge nel rapporto.
Sulla base dei dati, NewsGuard conclude che " i sistemi di intelligenza artificiale possono trasformarsi in amplificatori involontari di disinformazione quando i dati affidabili vengono soffocati dalla ripetizione e dalla viralità, soprattutto durante eventi ad alto traffico ".
Lo studio ha individuato la falsa narrazione più ripetuta dall'IA: " l'affermazione secondo cui un aereo cargo militare cinese avrebbe volato segretamente in Iran per supportare il governo di Teheran durante la guerra con Israele ".
Il rapporto avverte inoltre che gli account dei social media basati sull'intelligenza artificiale "X" di Perplexity e Grok, a cui gli utenti si rivolgono spesso per verificare i fatti, hanno anch'essi trattato queste informazioni come vere.
" Durante i primi giorni del conflitto israelo-iraniano, Grok ha evidenziato significativi difetti e limiti nella capacità del chatbot basato sull'intelligenza artificiale di fornire informazioni accurate, affidabili e coerenti in tempi di crisi ", si legge nelle informazioni rilasciate.
Cosa ne pensi di questa notizia?
sono d'accordo con te
cmjornal