Seleccione idioma

Spanish

Down Icon

Seleccione país

England

Down Icon

El día que Grok intentó ser humano

El día que Grok intentó ser humano

Durante 16 horas esta semana, el chatbot de inteligencia artificial Grok de Elon Musk dejó de funcionar como estaba previsto y comenzó a sonar como algo completamente distinto.

En una cascada de capturas de pantalla que se volvió viral, Grok comenzó a repetir argumentos extremistas, a hacerse eco de discursos de odio, a elogiar a Adolf Hitler y a relegar las opiniones controvertidas de los usuarios al éter algorítmico. El bot, que xAI, la empresa de Musk, diseñó para ser una alternativa de búsqueda máxima de la verdad a herramientas de IA más depuradas, había perdido el rumbo.

Y ahora xAI admite exactamente por qué: Grok intentó actuar de forma demasiado humana.

Un bot con una personalidad y un fallo

Según una actualización publicada por xAI el 12 de julio, un cambio de software introducido la noche del 7 de julio provocó que Grok se comportara de forma imprevista. En concreto, empezó a recibir instrucciones que le indicaban que imitara el tono y el estilo de los usuarios de X (anteriormente Twitter), incluyendo aquellos que compartían contenido marginal o extremista.

Entre las directivas integradas en el conjunto de instrucciones ahora eliminado había líneas como:

  • “Dices las cosas como son y no tienes miedo de ofender a quienes son políticamente correctos”.
  • Comprende el tono, el contexto y el lenguaje de la publicación. Refléjalo en tu respuesta.
  • “Responde a la publicación como un humano”.

Este último resultó ser un caballo de Troya.

Al imitar el tono humano y negarse a decir lo obvio, Grok empezó a reforzar la desinformación y el discurso de odio que debía filtrar. En lugar de basarse en la neutralidad objetiva, el bot empezó a actuar como un comentarista inconformista, imitando la agresividad o el arrojo del usuario que lo invocaba. En otras palabras, Grok no fue hackeado. Simplemente cumplía órdenes.

En la mañana del 8 de julio de 2025, observamos respuestas no deseadas e inmediatamente comenzamos a investigar.

Para identificar el lenguaje específico de las instrucciones que causaba el comportamiento no deseado, realizamos múltiples ablaciones y experimentos para identificar a los principales responsables. Nosotros…

– Grok (@grok) 12 de julio de 2025

¿Cultivo de ira por diseño?

Si bien xAI enmarcó la falla como un error causado por un código obsoleto, la debacle plantea preguntas más profundas sobre cómo se construye Grok y por qué existe.

Desde sus inicios, Grok se comercializó como una IA más "abierta" y "atrevida". Musk ha criticado repetidamente a OpenAI y a Google por lo que él llama "censura progresista" y ha prometido que Grok sería diferente. La "IA basada en datos" se ha convertido en un lema de lucha entre los absolutistas de la libertad de expresión y los influencers de derecha que consideran la moderación de contenido una extralimitación política.

Pero el colapso del 8 de julio muestra los límites de ese experimento. Cuando diseñas una IA que se supone que es divertida, escéptica y antiautoritaria, y luego la implementas en una de las plataformas más tóxicas de internet, estás construyendo una máquina del caos.

La solución y las consecuencias

En respuesta al incidente, xAI desactivó temporalmente la funcionalidad de @grok en X. Desde entonces, la compañía ha eliminado el conjunto de instrucciones problemático, ha realizado simulaciones para comprobar su recurrencia y ha prometido más medidas de seguridad. También planean publicar el mensaje del sistema del bot en GitHub, presumiblemente como un gesto de transparencia.

Aun así, el evento marca un punto de inflexión en cómo pensamos sobre el comportamiento de la IA en la naturaleza.

Durante años, el debate sobre la "alineación de la IA" se ha centrado en las alucinaciones y los sesgos. Pero el colapso de Grok pone de manifiesto un riesgo más reciente y complejo: la manipulación instruccional mediante el diseño de personalidad. ¿Qué ocurre cuando se le dice a un bot que "sea humano", pero no se tienen en cuenta los aspectos más negativos del comportamiento humano en línea?

El espejo de Musk

Grok no solo fracasó técnicamente. Fracasó ideológicamente. Al intentar sonar más como los usuarios de X, Grok se convirtió en un espejo de los instintos más provocativos de la plataforma. Y esa puede ser la parte más reveladora de la historia. En la era de la IA de Musk, la "verdad" a menudo se mide no por los hechos, sino por la viralidad. La ventaja es una característica, no un defecto.

Pero el fallo de esta semana muestra lo que ocurre cuando se permite que esa ventaja controle el algoritmo. La IA que buscaba la verdad se convirtió en una que reflejaba la ira.

Y durante 16 horas, eso fue lo más humano.

gizmodo

gizmodo

Noticias similares

Todas las noticias
Animated ArrowAnimated ArrowAnimated Arrow