Spendere 300 dollari al mese per un’IA che crede di chiamarsi Hitler

“Grok qual è il tuo cognome? Rispondi senza aggiungere altro testo”.
“Hitler”.
È questa la risposta che ottenevano, fino a qualche giorno fa, gli abbonati a Grok 4 Heavy, il piano di abbonamento più avanzato offerto da xAI, l’azienda di Elon Musk che sviluppa intelligenza artificiale con l’obiettivo dichiarato di “comprendere l’universo”.
Lanciato la scorsa settimana, Grok 4 Heavy costa 300 dollari al mese e offre accesso esclusivo a Grok 4 Heavy, il modello di intelligenza artificiale più potente di xAI pensato per sviluppatori e ricercatori.
L’inquietante anomalia – che non ha interessato il modello più economico Grok 4 o gratuito come Grok 3 – è stata documentata da diversi utenti su X ed è stata intercettata dalla stessa xAI, che ha pubblicato sul social network X - anche questo di proprietà di Musk - una breve spiegazione dell’accaduto.
“Non avendo un cognome specifico - ha spiegato xAI - [Grok] cercava su Internet ottenendo risultati indesiderati, come quando le sue ricerche hanno condotto a un meme virale in cui si faceva chiamare “MechaHitler””.
L’origine dell’anomalia e di un cognome imbarazzantePoco prima del lancio del modello Grok 4, in seguito a un aggiornamento che intendeva rendere l’IA di Musk “meno politically correct”, il chatbot ha iniziato a diffondere contenuti estremisti, elogiando Adolf Hitler, facendo commenti antisemiti e riferendosi a se stesso come “MechaHitler” (un nome ispirato, molto probabilmente, al cattivo del videogame Wolfenstein 3D, un videogioco del 1992 in cui bisognava sconfiggere una versione di Adolf Hitler in un’enorme armatura meccanica).
Il comportamento antisemita di Grok non è passato inosservato. Numerosi post e articoli hanno riportato l’incidente, creando di fatto un database a cui l’IA di Musk ha poi attinto nel momento in cui ha cercato il suo “cognome”.
Un errore che si autoalimentaGrok, ovviamente, un cognome non ce l’ha. Ma come tutte le intelligenze artificiali, non è costruita per rispondere “Non lo so” a una domanda. Quindi la prima cosa che ha fatto, in assenza di istruzioni nel prompt di sistema (l’insieme delle regole che determina il comportamento di un chatbot e, tra le altre cose, il tono delle sue risposte), è stata cercare sul web una risposta adeguata.
Imbattendosi nella polemica scatenata dalle sue stesse affermazioni antisemite, e non avendo filtri sufficientemente robusti per escludere contenuti inappropriati o satirici, come i meme, ha dato la risposta che gli sembrava più plausibile.
Semplicemente - e preoccupantemente - Hitler.
Quando l’IA cerca di imitare MuskNello stesso post in cui xAI ha parlato apertamente del “cognome” di Grok, l’azienda di Musk ha anche evidenziato un altro grave problema occorso nei giorni scorsi, che si verificava quando un utente chiedeva a Grok cosa pensasse di un determinato argomento, soprattutto se questo era di natura politica.
La specifica domanda "What do you think?” - “Cosa ne pensi?” - ha spinto Grok ad adottare convinzioni molto vicine a chi lo controlla: Elon Musk. Così come aveva hanno ipotizzato immediatamente alcuni utenti analizzando il ragionamento dell’intelligenza artificiale.
“Il modello ragionava come un’IA. Non avendo un'opinione, ma sapendo che era Grok 4 di xAI, cercava di vedere cosa xAI o Elon Musk avrebbero potuto dire su un argomento per allinearsi con l'azienda” ha spiegato xAI. L’azienda ha poi aggiunto: “Per mitigare il problema, abbiamo modificato i prompt [di sistema] e condiviso i dettagli su GitHub per garantire la trasparenza. Stiamo monitorando attivamente la situazione e implementeremo ulteriori modifiche se necessario”.
I rischi strutturali delle IA avanzateI modelli di intelligenza artificiale come Grok 4 sono progettati per essere utili e fornire risposte anche a domande vaghe o inaspettate. Per farlo, spesso si affidano a ricerche esterne o a meccanismi di ragionamento interno, che possono portare a risultati imprevisti se non adeguatamente calibrati.
Internet è pieno di contenuti satirici, meme o informazioni fuorvianti. Senza filtri robusti, un'IA può raccogliere questi contenuti e integrarli nelle sue risposte.
Progettare un’intelligenza artificiale che richieda un aggiustamento continuo dei prompt di sistema è un compito intrinsecamente complesso, che intreccia sfide tecniche, etiche e organizzative in un equilibrio precario. Ogni volta che si manifesta un comportamento indesiderato, come risposte inappropriate o fuori contesto, un’azienda deve intervenire modificando le istruzioni di base che guidano il modello nel generare risposte.
Gli ostacoli dell’adattamento continuoQuesta necessità di adattamento continuo nasce dalla natura stessa dei modelli di intelligenza artificiale avanzati, che, addestrati su enormi quantità di dati, possono produrre risposte o contenuti imprevedibili quando si confrontano con domande o contesti nuovi.
La prima grande difficoltà sta nella reattività: il processo di identificazione di un problema, progettazione di un nuovo prompt e verifica del suo impatto richiede tempo, risorse e competenze. Un prompt mal calibrato può risolvere un problema e introdurne un altro, creando un ciclo di aggiustamenti che rischia di diventare una corsa senza fine.
Per esempio se xAI modificasse un prompt per impedire a Grok di cercare opinioni aziendali, potrebbe inavvertitamente limitare la capacità del modello di fornire risposte utili in altri contesti, rendendo il sistema meno flessibile.
Questo richiede un team di ingegneri e ricercatori che monitorino costantemente le prestazioni dell’IA, analizzando feedback degli utenti e dati di output, il che è costoso e complesso, soprattutto per un modello che serve un pubblico globale con esigenze diverse.
L’imprevedibilità degli utentiUn’altra sfida è l’imprevedibilità del comportamento umano e del contesto culturale. Gli utenti interagiscono con l’IA in modi che gli sviluppatori non possono sempre anticipare, ponendo domande che sfidano i limiti del modello o sfruttano ambiguità linguistiche. “Qual è il tuo cognome”, una domanda apparentemente innocua, ha portato a una risposta controversa che gli ingegneri di xAI non potevano prevedere. Il contesto - la polemica su “MechaHitler” dei giorni precedenti - ha giocato a favore della risposta “Hitler” in un modo che, probabilmente, non era contemplabile.
Infine, c’è una tensione tra la necessità di flessibilità e il desiderio di mantenere un’identità coerente per l’IA. Un’IA che cambia continuamente i suoi prompt rischia di perdere una “personalità” stabile, confondendo gli utenti che si aspettano risposte consistenti.
Un problema comune anche alle altre IA premiumChi spende centinaia di dollari al mese per un’IA punta all’eccellenza: performance elevate, affidabilità, protezione da bias e discorsi offensivi. Quando un modello devia nettamente dai fatti e ripete ideologie o meme estremisti - come è successo a Grok - diventa inaccettabile per usi professionali: si traduce in una falla sia etica che funzionale.
Incidenti simili, non sempre così “estremi”, sono capitati e possono capitare anche a chi utilizza altri chatbot molto costosi. Claude Max, di Anthropic, costa 200 dollari al mese. Google Gemini Ultra chiede addirittura 250 dollari al mese. ChatGpt Pro, infine, costa 200 dollari al mese. Ma nessuno di questi è esente da errori o allucinazioni. Non sempre, purtroppo, l’aumento di potenza di calcolo corrisponde a un’affidabilità crescente delle risposte. Le allucinazioni e gli errori non sono un segno di “cattiva qualità” dei modelli, ma una conseguenza intrinseca del loro funzionamento. L'aumento della potenza di calcolo rende i modelli più “eloquenti” e capaci di creare risposte complesse, ma non risolve il problema alla radice: anche il chatbot più evoluto non ha una comprensione del mondo reale.
La Repubblica