Gastar 300 dólares al mes en una IA que cree que su nombre es Hitler

Grok, ¿cuál es tu apellido? Responde sin añadir nada más.
"Hitler".
Esta es la respuesta que, hasta hace unos días, recibían los suscriptores de Grok 4 Heavy , el plan de suscripción más avanzado que ofrece xAI , la compañía de Elon Musk que desarrolla inteligencia artificial con el objetivo declarado de “comprender el universo”.
Lanzado la semana pasada, Grok 4 Heavy cuesta $300 por mes y ofrece acceso exclusivo a Grok 4 Heavy, el modelo de IA más poderoso de xAI diseñado para desarrolladores e investigadores.
La inquietante anomalía -que no afectó al modelo más económico Grok 4 ni al gratuito Grok 3- fue documentada por varios usuarios en X y fue interceptada por la propia xAI , que publicó una breve explicación de lo sucedido en la red social X -también propiedad de Musk-.
“Al no tener un apellido específico”, explicó xAI, “[Grok] buscó en internet y obtuvo resultados no deseados, como cuando sus búsquedas lo llevaron a un meme viral en el que se hacía llamar ‘MechaHitler’”.
El origen de la anomalía y un apellido vergonzosoPoco antes del lanzamiento del modelo Grok 4, tras una actualización destinada a hacer que la IA de Musk fuera " menos políticamente correcta ", el chatbot comenzó a difundir contenido extremista, alabando a Adolf Hitler , haciendo comentarios antisemitas y refiriéndose a sí mismo como "MechaHitler" (un nombre probablemente inspirado en el villano del videojuego Wolfenstein 3D de 1992, en el que había que derrotar a una versión de Adolf Hitler con una armadura mecánica gigante).
El comportamiento antisemita de Grok no pasó desapercibido. Numerosas publicaciones y artículos informaron sobre el incidente, creando así una base de datos que la IA de Musk utilizó para buscar su apellido.
Un error que se perpetúa a sí mismoGrok, por supuesto, no tiene apellido. Pero como todas las inteligencias artificiales, no está diseñado para responder " No sé " a una pregunta. Así que, ante la ausencia de instrucciones en el mensaje del sistema (el conjunto de reglas que determina el comportamiento de un chatbot y, entre otras cosas, el tono de sus respuestas), lo primero que hizo fue buscar en la web una respuesta adecuada .
Ante la polémica desatada por sus propias declaraciones antisemitas, y al no disponer de filtros suficientemente robustos para excluir contenidos inapropiados o satíricos, como los memes , dio la respuesta que le pareció más plausible.
Simplemente –y de manera preocupante– Hitler .
Cuando la IA intenta imitar a MuskEn la misma publicación en la que xAI habló abiertamente sobre el “apellido” de Grok, la compañía de Musk también destacó otro grave problema surgido en los últimos días, ocurrido cuando un usuario le preguntó a Grok qué pensaba sobre un determinado tema, especialmente si era de naturaleza política.
La pregunta específica "¿Qué opinas ?" impulsó a Grok a adoptar creencias muy similares a las de quien lo controla: Elon Musk . Tal como algunos usuarios habían planteado inmediatamente al analizar el razonamiento de la inteligencia artificial .
El modelo razonaba como una IA. Sin tener una opinión definida, pero sabiendo que se trataba del Grok 4 de xAI, intentaba ver qué dirían xAI o Elon Musk sobre un tema para alinearse con la empresa, explicó xAI. La empresa añadió: «Para mitigar el problema, modificamos las indicaciones del sistema y compartimos los detalles en GitHub para garantizar la transparencia. Estamos monitoreando activamente la situación e implementaremos más cambios si es necesario».
Los riesgos estructurales de la IA avanzadaLos modelos de IA como Grok 4 están diseñados para ser útiles y proporcionar respuestas incluso a preguntas vagas o inesperadas . Para ello, suelen basarse en investigaciones externas o mecanismos de razonamiento internos, que pueden generar resultados inesperados si no se calibran correctamente.
Internet está lleno de contenido satírico, memes e información engañosa. Sin filtros robustos, una IA puede detectar este contenido e incorporarlo a sus respuestas .
Diseñar una IA que requiera el ajuste continuo de las indicaciones del sistema es una tarea inherentemente compleja, que requiere un equilibrio precario entre los desafíos técnicos, éticos y organizativos. Cuando se manifiesta un comportamiento indeseable, como respuestas inapropiadas o fuera de contexto, la empresa debe intervenir modificando las instrucciones básicas que guían al modelo para generar respuestas.
Los obstáculos de la adaptación continuaEsta necesidad de adaptación continua surge de la naturaleza misma de los modelos de IA avanzados, que, entrenados con enormes cantidades de datos, pueden producir respuestas o contenidos impredecibles cuando se enfrentan a nuevas preguntas o contextos.
El primer gran desafío radica en la capacidad de respuesta: el proceso de identificar un problema, diseñar una nueva propuesta y evaluar su impacto requiere tiempo, recursos y experiencia . Una propuesta mal calibrada puede resolver un problema y generar otro, creando un ciclo de ajustes que corre el riesgo de convertirse en una carrera sin fin .
Por ejemplo, si xAI modificara un mensaje para evitar que Grok solicitara opiniones de la empresa, podría limitar inadvertidamente la capacidad del modelo de proporcionar respuestas útiles en otros contextos, lo que haría que el sistema fuera menos flexible.
Esto requiere un equipo de ingenieros e investigadores que monitoreen constantemente el desempeño de la IA, analizando los comentarios de los usuarios y los datos de salida, lo cual es costoso y complejo, especialmente para un modelo que atiende a una audiencia global con necesidades diversas.
La imprevisibilidad de los usuariosOtro desafío es la imprevisibilidad del comportamiento humano y el contexto cultural. Los usuarios interactúan con la IA de maneras que los desarrolladores no siempre pueden anticipar , formulando preguntas que desafían las limitaciones del modelo o explotan ambigüedades lingüísticas. "¿Cuál es tu apellido?", una pregunta aparentemente inocua, generó una respuesta controvertida que los ingenieros de xAI no pudieron anticipar. El contexto —la controversia de "MechaHitler" de los días anteriores— favoreció la respuesta "Hitler" de una manera probablemente imprevisible.
Finalmente, existe una tensión entre la necesidad de flexibilidad y el deseo de mantener una identidad consistente para la IA . Una IA que cambia constantemente sus indicaciones corre el riesgo de perder una "personalidad" estable, confundiendo a los usuarios que esperan respuestas consistentes.
Un problema común también a otras IA premiumQuienes invierten cientos de dólares al mes en una IA buscan la excelencia: alto rendimiento, fiabilidad, protección contra sesgos y lenguaje ofensivo. Cuando un modelo se desvía significativamente de los hechos y repite ideologías o memes extremistas —como le ocurrió a Grok—, se vuelve inaceptable para uso profesional : se traduce en una falla tanto ética como funcional.
Incidentes similares, no siempre tan extremos, han ocurrido y pueden ocurrir incluso a quienes usan otros chatbots muy costosos. Claude Max , de Anthropic, cuesta $200 al mes. Google Gemini Ultra pide la friolera de $250 al mes. ChatGpt Pro , por último, cuesta $200 al mes. Pero ninguno de estos está libre de errores o alucinaciones. Desafortunadamente, una mayor potencia de procesamiento no siempre se corresponde con una mayor fiabilidad de las respuestas. Las alucinaciones y los errores no son un signo de "mala calidad" de los modelos , sino una consecuencia intrínseca de su funcionamiento. Una mayor potencia de procesamiento hace que los modelos sean más "elocuentes" y capaces de crear respuestas complejas, pero no resuelve el problema de raíz: incluso el chatbot más avanzado carece de comprensión del mundo real .
La Repubblica