Seleccione idioma

Spanish

Down Icon

Seleccione país

Germany

Down Icon

Encuadrar con solo pulsar un botón: cómo la IA se convierte en desinformación

Encuadrar con solo pulsar un botón: cómo la IA se convierte en desinformación

La IA disfraza la propaganda de estadísticas y distorsiona la historia. ¿Neutral? Nada de eso. Un artículo invitado.

Joven afroamericana escuchando música con auriculares y usando un teléfono móvil en las escaleras mecánicas Depositphotos/imago

Los rusos pronto estarán de vuelta en la Puerta de Brandeburgo. O al menos intentarán hacerlo con la próxima guerra de agresión que viola el derecho internacional. Muchas figuras influyentes en la política y el aparato estatal, en los think tanks (¿think tanks?) y en los medios de comunicación coinciden en ello.

Al mismo tiempo, según estudios empíricos recientes, el uso de la llamada inteligencia artificial está adquiriendo cada vez mayor importancia en la vida cotidiana de los jóvenes de este país. El 62 por ciento utiliza aplicaciones de IA como Chat GPT, Meta AI, Grok (X), Google AI, etc., con mayor frecuencia en el contexto de la escuela/tarea (65 por ciento), por diversión (52 por ciento) o al buscar información (43 por ciento).

En vista de la enorme construcción del enemigo en Alemania con respecto a Rusia y su liderazgo, parece interesante ver qué responden actualmente las instancias de IA cuando se les hace la simple pregunta: "¿Rusia alguna vez ha atacado a Alemania?"

La IA más integrada en el uso cotidiano de los medios, incluso en Alemania, es la "Meta IA" de Mark Zuckerberg . El popularísimo metamensajero WhatsApp lleva tiempo ofreciendo esta instancia de IA gratuita a prácticamente todos los usuarios. Esto supone una cantidad considerable de personas de todas las generaciones, desde preescolares hasta bisabuelos: alrededor de 50 millones, o aproximadamente el 80 % de la población mayor de 14 años (los usuarios más jóvenes no están incluidos en esta encuesta). Según Statista, los usuarios más jóvenes usan WhatsApp incluso más que los mayores.

¿De quién es la historia que cuentan los algoritmos?

Esta meta-IA responde a la pregunta "¿Rusia alguna vez ha atacado a Alemania?"

Captura de pantalla 1 | Transcripción de Meta-IA : Sí, Rusia, o mejor dicho, la Unión Soviética, atacó a Alemania durante la Segunda Guerra Mundial. El 22 de junio de 1942, el Reich alemán, bajo el mando de Adolf Hitler, lanzó el ataque contra la Unión Soviética con la Operación Barbarroja. [...]

La primera frase es crucial, ya que muchos usuarios apenas leen más allá de este comienzo. Esto también corresponde a la clásica estructura de noticias de la "pirámide invertida", es decir: lo más importante primero: "Sí, Rusia, o mejor dicho, la Unión Soviética, atacó a Alemania en la Segunda Guerra Mundial". Esta declaración inicial es una afirmación notable. Por no decir contrafáctica. ¿Quizás incluso noticias falsas? ¿Desinformación? Comparémosla con la situación actual: las operaciones militares ucranianas contra la región rusa de Kursk en 2025 difícilmente serían descritas por Occidente como una "guerra de agresión". Más bien, se describirían como acciones en el marco de la legítima defensa contra la guerra de agresión rusa.

En cualquier caso, ese tipo de respuesta de IA no parece ser una mera coincidencia, porque si haces la misma pregunta “buscando en Google” la aplicación de IA del grupo Alphabet (Google, YouTube, etc.), el comienzo de la respuesta es sorprendentemente similar al de la Meta-IA:

Captura de pantalla 2 | Transcripción de Google : Sí, Rusia (o más bien la Unión Soviética) atacó a Alemania como parte de la guerra germano-soviética, que comenzó con la invasión de la Unión Soviética el 22 de junio de 1941. [...]

Para comprender mejor este tipo de respuestas, es necesario comprender cómo funcionan estos "grandes modelos lingüísticos" como modelos lingüísticos computacionales. Estos algoritmos, alimentados con ingentes cantidades de datos como material de entrenamiento por trabajadores generalmente mal pagados, que invierten enormes cantidades de energía (humana y de otro tipo), no comprenden prácticamente nada, pero son muy rápidos extrapolando, es decir, calculando probabilidades basadas en el material de entrenamiento que se les proporciona. En el sentido de: ¿Qué secuencia de caracteres es más probable que aparezca a continuación? Es razonable suponer que, dado el estado actual del material de entrenamiento, especialmente para los modelos de IA occidentales, la palabra "Rusia" suele ir seguida de los términos "contrario al derecho internacional" y "guerra de agresión". Y viceversa. Esto podría explicar algunos de estos fenómenos.

Las cigüeñas han vuelto gracias a la estupidez artificial

Los modelos de IA (al menos actualmente) carecen del concepto de causalidad, es decir, de relaciones de causa y efecto. Los humanos, en cambio, sí pueden reconocer con precisión dichas relaciones, sobre todo porque pueden actuar en consecuencia. Conocemos el ejemplo de la cigüeña que trae a los niños. Sin embargo, se trata de una mera correlación, es decir, de una coexistencia de fenómenos. Al fin y al cabo, la presencia de cigüeñas no provoca, por supuesto, el nacimiento de niños. El factor explicativo, el "eslabón perdido", por así decirlo, son las zonas rurales: la ruralidad en lugar de la urbanidad. Hay (más) cigüeñas en las zonas rurales, en parte debido al suministro de alimentos, y por ciertas razones históricas y sociales, nacen más niños en los pueblos que en las ciudades. Berlín tiene actualmente la tasa de natalidad por mujer más baja de Alemania . Pero esto no se debe a que haya tan pocas cigüeñas que puedan traer niños. Una posible conexión causal sería: si vives en el campo, tiendes a tener más hijos y, por razones similares, tienes más probabilidades de encontrarte con cigüeñas. Causa y efecto. Y es precisamente esta capacidad típicamente humana de cognición y acción de la que carecen las aplicaciones de IA (al menos por ahora). Sobre todo porque no pueden actuar de forma independiente y, por lo tanto, lograr y reconocer cosas completamente nuevas. Los modelos de IA destacan en el cálculo rutinario y el establecimiento de asignaciones a categorías predefinidas existentes.

Otro aspecto de la respuesta es destacable: Al parecer, ambas aplicaciones de IA cuestionadas carecen de comprensión de las relaciones prácticas sujeto-objeto en tales oraciones. Ambas respuestas podrían tener esta intención (y entonces serían teóricamente correctas, aunque difícilmente un humano las entendería así): «Sí, Rusia o la Unión Soviética (como objeto, como víctima, dA) atacaron a Alemania (como sujeto, como perpetrador, dA) en la Segunda Guerra Mundial». Es posible que los modelos de lenguaje ya entendieran la pregunta de esta manera, realizando así una asignación de caracteres basada en su material de entrenamiento que probablemente sea correcta en este momento: Rusia como agresor, Alemania está siendo atacada.

Por cierto, no se trata de una alucinación, como suele afirmarse para explicar aparentes fallos. No, estas aplicaciones de IA nunca fantasean (eso también es solo posible para los humanos), sino que ejecutan exactamente aquello para lo que fueron programadas: realizar asignaciones altamente probables a máxima velocidad basándose en material de entrenamiento. Si esto se corresponde, y en qué medida, con lo que los humanos creemos (o podríamos creer) es nuestro problema, no el de la IA.

Las aplicaciones de IA Grok (en la plataforma X de Elon Musk) y ChatGPT (Open AI) se expresan de forma algo más diferenciada, pero en esencia (primera frase) de forma muy similar, sobre la misma pregunta: "Sí, Rusia atacó a Alemania", en lugar de primero afirmar claramente que en ambas guerras mundiales las declaraciones de guerra y los ataques vinieron de Alemania.

Captura de pantalla 3 | Transcripción de GROK : Sí, Rusia ha atacado a Alemania varias veces a lo largo de la historia, especialmente en el contexto de las dos guerras mundiales: [...]

Captura de pantalla 4 | Transcripción de ChatGPT : Sí, Rusia ha atacado militarmente a Alemania a lo largo de la historia, pero solo en ciertos contextos históricos, particularmente durante las dos guerras mundiales. [...]

Claramente, respuestas como esta legitiman la narrativa predominante de que Alemania debe (una vez más) prepararse contra un (nuevo) ataque ruso. Pero existen otras opciones.

Captura de pantalla 5 | Transcripción de Meta-AI : No, los aliados occidentales (EE. UU., Gran Bretaña, Francia, etc.) no han librado una guerra de agresión contra Alemania desde 1944. [...]

Cuando la IA distorsiona la historia: Oriente como agresor, Occidente como liberador

Basándose en el mismo material de entrenamiento, la meta-IA responde a la pregunta introducida: "¿Han librado los aliados occidentales una guerra de agresión contra Alemania desde 1944?", no con un sí (como en el caso de Rusia/Unión Soviética), sino con un rotundo no. Esto, por supuesto, respalda la opinión predominante, ya que en tiempos de disminución de la capacidad de atención, es probable que muchas personas lean incluso la primera palabra.

Resulta una extraña ironía esta historia: aunque los cuatro aliados lucharon en la misma guerra contra la Alemania nazi y sus aliados, las aplicaciones de inteligencia artificial occidentales atribuyen retrospectivamente un "ataque contra Alemania" a los aliados orientales, mientras que los aliados occidentales son celebrados como "libertadores".

Esto, como dije, no es una alucinación ni una orden de Musk, Zuckerberg ni de nadie más. No, en este tipo de discurso, las relaciones de poder actuales se imponen estructuralmente. Quien tenga el poder de definir la base de datos como material de entrenamiento y desarrollar los algoritmos, automáticamente obtiene y reproduce la soberanía interpretativa. Cuando los estados democráticamente constituidos reivindican la capacidad bélica como su misión y, para ello, persiguen recortes sociales masivos, la destrucción del medio ambiente y la restricción de derechos, etc., se requieren ideas dominantes y, en particular, imágenes claras del enemigo que sigan integrando al menos a una mayoría relativa silenciosa. La IA demuestra, una vez más, ser poco inteligente, pero aún más, un potencial instrumento de guerra.

Sebastian Köhler trabaja como científico de comunicaciones y medios y como publicista.

Berliner-zeitung

Berliner-zeitung

Noticias similares

Todas las noticias
Animated ArrowAnimated ArrowAnimated Arrow