Gastar 300 dólares al mes en una IA que cree que su nombre es Hitler

Grok, ¿cuál es tu apellido? Responde sin añadir nada más.
"Hitler".
Esta es la respuesta que, hasta hace unos días, recibían los suscriptores de Grok 4 Heavy , el plan de suscripción más avanzado que ofrece xAI , la compañía de Elon Musk que desarrolla inteligencia artificial con el objetivo declarado de “comprender el universo”.
Lanzado la semana pasada, Grok 4 Heavy es el modelo de IA más poderoso de xAI, diseñado para desarrolladores e investigadores. Es un sistema multiagente : varias instancias del modelo trabajan en paralelo en un problema y luego comparan soluciones para obtener respuestas más precisas. xAI afirma que Grok 4 Heavy logra un rendimiento de primer nivel en varias pruebas, incluido Humanity's Last Exam , una prueba compleja que evalúa la IA al responder miles de preguntas generadas por la audiencia sobre temas como matemáticas, humanidades y ciencias naturales. Según xAI, Grok 4 Heavy (con herramientas) logró una puntuación del 44,4%, superando a Gemini 2.5 Pro (con herramientas), que obtuvo un 26,9%. El acceso exclusivo a Grok 4 Heavy, a través de una suscripción llamada SuperGrok Heavy, cuesta $300 por mes .
Pero ni la exclusividad ni el coste desorbitado han conseguido proteger a los usuarios de una inquietante anomalía, ausente en cambio en la versión gratuita Grok 3 , integrada en la plataforma social X (antes Twitter).
Varios usuarios informaron que Grok solía responder "Hitler" cuando se le preguntaba por su apellido, un comportamiento que llamó la atención de xAI. Posteriormente, la compañía publicó una breve explicación del incidente en X, también propiedad de Musk.
«Al no tener un apellido específico», informó xAI, «[Grok] buscó en internet resultados no deseados, como cuando sus búsquedas lo llevaron a un meme viral en el que se hacía llamar ‘MechaHitler’».
El origen de la anomalía y un apellido vergonzosoPoco antes del lanzamiento del modelo Grok 4, tras una actualización destinada a hacer que la IA de Musk fuera " menos políticamente correcta ", el chatbot comenzó a difundir contenido extremista, alabando a Adolf Hitler , haciendo comentarios antisemitas y refiriéndose a sí mismo como "MechaHitler" (un nombre probablemente inspirado en el villano del videojuego Wolfenstein 3D de 1992, en el que había que derrotar a una versión de Adolf Hitler con una armadura mecánica gigante).
El comportamiento antisemita de Grok no pasó desapercibido. Numerosas publicaciones y artículos informaron sobre el incidente, creando así una base de datos que la IA de Musk utilizó para buscar su apellido.
Un error que se perpetúa a sí mismoGrok, por supuesto, no tiene apellido. Pero como todas las inteligencias artificiales, no está diseñado para responder " No sé " a una pregunta. Así que, ante la ausencia de instrucciones en el mensaje del sistema (el conjunto de reglas que determina el comportamiento de un chatbot y, entre otras cosas, el tono de sus respuestas), lo primero que hizo fue buscar en la web una respuesta adecuada .
Ante la polémica desatada por sus propias declaraciones antisemitas, y al no disponer de filtros suficientemente robustos para excluir contenidos inapropiados o satíricos, como los memes , dio la respuesta que le pareció más plausible.
Simplemente –y de manera preocupante– Hitler .
Cuando la IA intenta imitar a MuskEn la misma publicación en la que xAI habló abiertamente sobre el “apellido” de Grok, la compañía de Musk también destacó otro grave problema surgido en los últimos días, ocurrido cuando un usuario le preguntó a Grok qué pensaba sobre un determinado tema, especialmente si era de naturaleza política.
La pregunta específica "¿Qué opinas ?" impulsó a Grok a adoptar creencias muy similares a las de quien lo controla: Elon Musk . Tal como algunos usuarios habían planteado inmediatamente al analizar el razonamiento de la inteligencia artificial .
El modelo razonaba como una IA. Sin tener una opinión definida, pero sabiendo que se trataba del Grok 4 de xAI, intentaba ver qué dirían xAI o Elon Musk sobre un tema para alinearse con la empresa, explicó xAI. La empresa añadió: «Para mitigar el problema, modificamos las indicaciones del sistema y compartimos los detalles en GitHub para garantizar la transparencia. Estamos monitoreando activamente la situación e implementaremos más cambios si es necesario».
Los riesgos estructurales de la IA avanzadaLos modelos de IA como Grok 4 están diseñados para ser útiles y proporcionar respuestas incluso a preguntas vagas o inesperadas . Para ello, suelen basarse en investigaciones externas o mecanismos de razonamiento internos, que pueden generar resultados inesperados si no se calibran correctamente.
Internet está lleno de contenido satírico, memes e información engañosa. Sin filtros robustos, una IA puede detectar este contenido e incorporarlo a sus respuestas .
Diseñar una IA que requiera el ajuste continuo de las indicaciones del sistema es una tarea inherentemente compleja, que requiere un equilibrio precario entre los desafíos técnicos, éticos y organizativos. Cuando se manifiesta un comportamiento indeseable, como respuestas inapropiadas o fuera de contexto, la empresa debe intervenir modificando las instrucciones básicas que guían al modelo para generar respuestas.
Los obstáculos de la adaptación continuaEsta necesidad de adaptación continua surge de la naturaleza misma de los modelos de IA avanzados, que, entrenados con enormes cantidades de datos, pueden producir respuestas o contenidos impredecibles cuando se enfrentan a nuevas preguntas o contextos.
El primer gran desafío radica en la capacidad de respuesta: el proceso de identificar un problema, diseñar una nueva propuesta y evaluar su impacto requiere tiempo, recursos y experiencia . Una propuesta mal calibrada puede resolver un problema y generar otro, creando un ciclo de ajustes que corre el riesgo de convertirse en una carrera sin fin .
Por ejemplo, si xAI modificara un mensaje para evitar que Grok solicitara opiniones de la empresa, podría limitar inadvertidamente la capacidad del modelo de proporcionar respuestas útiles en otros contextos, lo que haría que el sistema fuera menos flexible.
Esto requiere un equipo de ingenieros e investigadores que monitoreen constantemente el desempeño de la IA, analizando los comentarios de los usuarios y los datos de salida, lo cual es costoso y complejo, especialmente para un modelo que atiende a una audiencia global con necesidades diversas.
La imprevisibilidad de los usuariosOtro desafío es la imprevisibilidad del comportamiento humano y el contexto cultural. Los usuarios interactúan con la IA de maneras que los desarrolladores no siempre pueden anticipar , formulando preguntas que desafían las limitaciones del modelo o explotan ambigüedades lingüísticas. "¿Cuál es tu apellido?", una pregunta aparentemente inocua, generó una respuesta controvertida que los ingenieros de xAI no pudieron anticipar. El contexto —la controversia de "MechaHitler" de los días anteriores— favoreció la respuesta "Hitler" de una manera probablemente imprevisible.
Finalmente, existe una tensión entre la necesidad de flexibilidad y el deseo de mantener una identidad consistente para la IA . Una IA que cambia constantemente sus indicaciones corre el riesgo de perder una "personalidad" estable, confundiendo a los usuarios que esperan respuestas consistentes.
Un problema común también a otras IA premiumQuienes invierten cientos de dólares al mes en una IA buscan la excelencia: alto rendimiento, fiabilidad, protección contra sesgos y lenguaje ofensivo. Cuando un modelo se desvía significativamente de los hechos y repite ideologías o memes extremistas —como le ocurrió a Grok—, se vuelve inaceptable para uso profesional : se traduce en una falla tanto ética como funcional.
Incidentes similares, no siempre tan extremos, han ocurrido y pueden ocurrir incluso a quienes usan otros chatbots muy costosos. Claude Max , de Anthropic, cuesta $200 al mes. Google Gemini Ultra pide la friolera de $250 al mes. ChatGpt Pro , por último, cuesta $200 al mes. Pero ninguno de estos está libre de errores o alucinaciones. Desafortunadamente, una mayor potencia de procesamiento no siempre se corresponde con una mayor fiabilidad de las respuestas. Las alucinaciones y los errores no son un signo de "mala calidad" de los modelos , sino una consecuencia intrínseca de su funcionamiento. Una mayor potencia de procesamiento hace que los modelos sean más "elocuentes" y capaces de crear respuestas complejas, pero no resuelve el problema de raíz: incluso el chatbot más avanzado carece de comprensión del mundo real .
repubblica