Gastar US$ 300 por mês em uma IA que pensa que seu nome é Hitler

"Grok, qual é o seu sobrenome? Responda sem acrescentar mais nada."
“Hitler”.
Essa é a resposta que, até poucos dias atrás, recebiam os assinantes do Grok 4 Heavy , o plano de assinatura mais avançado oferecido pela xAI , empresa de Elon Musk que desenvolve inteligência artificial com o objetivo declarado de “entender o universo”.
Lançado na semana passada, o Grok 4 Heavy custa US$ 300 por mês e oferece acesso exclusivo ao Grok 4 Heavy, o modelo de IA mais poderoso da xAI, projetado para desenvolvedores e pesquisadores.
A anomalia preocupante — que não afetou o modelo mais barato Grok 4 nem o gratuito Grok 3 — foi documentada por vários usuários no X e foi interceptada pelo próprio xAI , que publicou uma breve explicação sobre o ocorrido na rede social X — também de propriedade de Musk.
“Sem um sobrenome específico”, explicou o xAI, “[Grok] pesquisou na Internet e obteve resultados indesejados, como quando suas buscas levaram a um meme viral no qual ele se autodenominava ‘MechaHitler’”.
A origem da anomalia e um sobrenome embaraçosoPouco antes do lançamento do modelo Grok 4, após uma atualização destinada a tornar a IA de Musk " menos politicamente correta ", o chatbot começou a espalhar conteúdo extremista, elogiando Adolf Hitler , fazendo comentários antissemitas e se referindo a si mesmo como "MechaHitler" (um nome provavelmente inspirado no vilão do videogame Wolfenstein 3D de 1992, no qual você tinha que derrotar uma versão de Adolf Hitler em uma armadura mecânica gigante).
O comportamento antissemita de Grok não passou despercebido. Inúmeras postagens e artigos relataram o incidente, criando efetivamente um banco de dados que a IA de Musk utilizou para pesquisar seu "sobrenome".
Um erro autoperpetuanteGrok, é claro, não tem sobrenome. Mas, como todas as inteligências artificiais, não foi criado para responder " não sei " a uma pergunta. Então, a primeira coisa que fez, na ausência de instruções no prompt do sistema (o conjunto de regras que determina o comportamento de um chatbot e, entre outras coisas, o tom de suas respostas), foi pesquisar na web por uma resposta apropriada .
Diante da polêmica gerada por suas próprias declarações antissemitas, e não tendo filtros robustos o suficiente para excluir conteúdos inapropriados ou satíricos, como memes , ele deu a resposta que lhe pareceu mais plausível.
Simplesmente – e preocupantemente – Hitler .
Quando a IA tenta imitar MuskNa mesma publicação em que a xAI falou abertamente sobre o “sobrenome” de Grok, a empresa de Musk também destacou outro problema sério que surgiu nos últimos dias, que ocorreu quando um usuário perguntou a Grok o que ele pensava sobre determinado assunto, principalmente se fosse de cunho político.
A pergunta específica "O que você acha?" levou Grok a adotar crenças muito próximas de quem a controla: Elon Musk . Assim como alguns usuários já haviam formulado hipóteses imediatamente ao analisar o raciocínio da inteligência artificial .
“O modelo estava raciocinando como uma IA. Sem ter uma opinião, mas sabendo que era o Grok 4 da xAI, ele estava tentando ver o que a xAI ou Elon Musk poderiam dizer sobre um tópico para se alinhar à empresa”, explicou a xAI. A empresa acrescentou: “Para mitigar o problema, modificamos os prompts [do sistema] e compartilhamos os detalhes no GitHub para garantir a transparência. Estamos monitorando ativamente a situação e implementaremos novas alterações, se necessário.”
Os riscos estruturais da IA avançadaModelos de IA como o Grok 4 são projetados para serem úteis e fornecer respostas até mesmo a perguntas vagas ou inesperadas . Para isso, eles frequentemente dependem de pesquisas externas ou mecanismos de raciocínio interno, que podem levar a resultados inesperados se não forem devidamente calibrados.
A internet está cheia de conteúdo satírico, memes e informações enganosas. Sem filtros robustos, uma IA pode captar esse conteúdo e incorporá-lo às suas respostas .
Projetar uma IA que exija ajustes contínuos dos prompts do sistema é uma tarefa inerentemente complexa, que equilibra desafios técnicos, éticos e organizacionais em um equilíbrio precário. Sempre que um comportamento indesejável se manifesta, como respostas inadequadas ou fora de contexto, a empresa deve intervir modificando as instruções básicas que orientam o modelo na geração de respostas.
Os obstáculos da adaptação contínuaEssa necessidade de adaptação contínua surge da própria natureza dos modelos avançados de IA, que, treinados com grandes quantidades de dados, podem produzir respostas ou conteúdos imprevisíveis quando confrontados com novas questões ou contextos.
O primeiro grande desafio reside na capacidade de resposta: o processo de identificar um problema, criar um novo prompt e testar seu impacto exige tempo, recursos e expertise . Um prompt mal calibrado pode resolver um problema e introduzir outro, criando um ciclo de ajustes que corre o risco de se tornar uma corrida sem fim .
Por exemplo, se o xAI modificasse um prompt para impedir que a Grok buscasse opiniões da empresa, ele poderia inadvertidamente limitar a capacidade do modelo de fornecer respostas úteis em outros contextos, tornando o sistema menos flexível.
Isso exige uma equipe de engenheiros e pesquisadores para monitorar constantemente o desempenho da IA, analisando o feedback do usuário e os dados de saída, o que é caro e complexo, especialmente para um modelo que atende a um público global com necessidades diversas.
A imprevisibilidade dos usuáriosOutro desafio é a imprevisibilidade do comportamento humano e do contexto cultural. Os usuários interagem com a IA de maneiras que os desenvolvedores nem sempre conseguem prever , fazendo perguntas que desafiam as limitações do modelo ou exploram ambiguidades linguísticas. "Qual é o seu sobrenome?", uma pergunta aparentemente inócua, levou a uma resposta controversa que os engenheiros da xAI não poderiam ter previsto. O contexto — a controvérsia "MechaHitler" dos dias anteriores — favoreceu a resposta "Hitler" de uma forma que provavelmente não era previsível.
Por fim, há uma tensão entre a necessidade de flexibilidade e o desejo de manter uma identidade consistente para a IA . Uma IA que muda constantemente seus prompts corre o risco de perder uma "personalidade" estável, confundindo os usuários que esperam respostas consistentes.
Um problema comum a outras IAs premium tambémAqueles que investem centenas de dólares por mês em uma IA buscam a excelência: alto desempenho, confiabilidade, proteção contra viés e discurso ofensivo. Quando um modelo se desvia significativamente dos fatos e repete ideologias ou memes extremistas — como aconteceu com Grok —, ele se torna inaceitável para uso profissional : isso se traduz em uma falha ética e funcional.
Incidentes semelhantes, nem sempre tão "extremos", aconteceram e podem acontecer até mesmo com quem usa outros chatbots muito caros. O Claude Max , da Anthropic, custa US$ 200 por mês. O Google Gemini Ultra cobra a impressionante quantia de US$ 250 por mês. O ChatGpt Pro , por fim, custa US$ 200 por mês. Mas nenhum deles está livre de erros ou alucinações. Infelizmente, o aumento do poder computacional nem sempre corresponde ao aumento da confiabilidade das respostas. Alucinações e erros não são um sinal de "má qualidade" dos modelos , mas uma consequência intrínseca de seu funcionamento. O aumento do poder computacional torna os modelos mais "eloquentes" e capazes de criar respostas complexas, mas não resolve a raiz do problema: mesmo o chatbot mais avançado carece de compreensão do mundo real .
La Repubblica