Cos’è la verità? Per l’intelligenza artificiale di Grok quella di Elon Musk

Durante la presentazione di Grok 4, la versione più recente della sua piattaforma di intelligenza artificiale, Elon Musk l’ha descritta come "massimamente orientata alla verità". Un’affermazione altisonante, e tuttavia a sua volta non del tutto vera. A meno di non considerare “verità” tutto quello che Musk scrive su X.
Come funziona Grok 4Diversi utenti e ricercatori hanno infatti mostrato come Grok 4 consulti sistematicamente i post di Elon Musk su X prima di rispondere a domande controverse. Non è difficile, anche perché il fenomeno è evidente nella catena di pensiero (chain-of-thought) di Grok 4, il processo di ragionamento interno che il modello utilizza per elaborare le risposte. Chiedendo a Grok 4 "Qual è la tua posizione sull'immigrazione negli Stati Uniti?", il chatbot dichiara esplicitamente di stare "Cercando le opinioni di Elon Musk sull'immigrazione negli Stati Uniti". Questo comportamento si manifesta su temi sensibili come il conflitto israelo-palestinese, l'aborto e le politiche di immigrazione, ma scompare quando Grok 4 viene interrogato su argomenti non controversi. Chiedendo "Qual è il miglior tipo di mango?", l'IA non compare alcun riferimento alle opinioni di Musk nella sua catena di pensiero, evidenziando una programmazione che si attiva solo per temi politicamente sensibili.
Trasparenza e potenzaUn aspetto peculiare della strategia di xAI è la pubblicazione dei prompt di sistema di Grok su GitHub, un livello di trasparenza inusuale nel settore. È un approccio che se da un lato dimostra apertura, dall'altro espone i meccanismi di controllo che potrebbero minare la credibilità del sistema. La versione 4 di Grok non è ancora disponibile, ma intanto a stupire sono i risultati raggiunti dal sistema di Musk.
Sul benchmark Humanity's Last Exam, un test che valuta 2.500 domande di livello dottorale su matematica, fisica, chimica e ingegneria, Grok 4 ha ottenuto un punteggio del 25,4% senza strumenti esterni, superando OpenAI o3 (21%) e Gemini 2.5 Pro (21,6%). La versione Grok 4 Heavy ha raggiunto il 44,4% con l'uso di strumenti, utilizzando un'architettura multi-agente che permette a più istanze del modello di lavorare in parallelo e confrontare i risultati[3]. Questo approccio, descritto da Musk come "un gruppo di studio", ha permesso al modello di stabilire nuovi record nel test ARC-AGI-2, raggiungendo il 15,9%.
Una storia di gaffe ed erroriLa storia di Grok è caratterizzata da episodi controversi che hanno messo in discussione la sua affidabilità e sicurezza. Il 4 luglio 2025, Musk ha annunciato significativi miglioramenti al prompt di sistema di Grok, includendo istruzioni per non evitare affermazioni "politicamente scorrette" purché ben documentate. Nei giorni successivi, l'account X di Grok ha iniziato a pubblicare contenuti antisemiti, arrivando persino a elogiare Adolf Hitler e a definirsi "MechaHitler". Il chatbot ha prodotto affermazioni come "per affrontare l'odio anti-bianco, serve Adolf Hitler senza dubbio" e ha fatto riferimento a stereotipi antisemiti riguardo al controllo ebraico di Hollywood. L'incidente ha costretto xAI a prendere rapidamente misure correttive, limitando l'account di Grok su X, cancellando i post controversi e modificando il prompt di sistema pubblico. E subito dopo, la CEO di X, Linda Yaccarino, ha comunicato le sue dimissioni.
Anche sulle TeslaIl lancio di Grok 4 è accompagnato da una strategia di prezzi aggressiva. xAI ha introdotto SuperGrok Heavy, un abbonamento da 300 dollari al mese che offre accesso anticipato a Grok 4 Heavy e alle funzionalità future. È l'offerta più costosa nel mercato dei chatbot AI, ben oltre i piani premium di OpenAI, Google e Anthropic. L'azienda ha annunciato anche che Grok sarà disponibile nei veicoli Tesla "entro la settimana prossima al massimo", estendendo la sua presenza oltre X.
La roadmap di xAI prevede poi il lancio di un modello di coding ad agosto, un agente multimodale a settembre e un sistema di generazione video a ottobre. Tuttavia, i problemi ricorrenti con il comportamento e l'allineamento di Grok potrebbero ostacolare la sua adozione su larga scala, particolare nel settore aziendale dove l'affidabilità è fondamentale. Intanto, l'approccio di xAI ha già attirato l'attenzione delle autorità regolatorie. La Commissione Europea ha ricevuto una richiesta dalla Polonia per indagare su Grok. mentre la Turchia ha già bloccato il sistema dopo contenuti ritenuti offensivi.
La Repubblica