Seleccione idioma

Spanish

Down Icon

Seleccione país

Portugal

Down Icon

Grok sobre los "defectos significativos" en las respuestas a la guerra en Oriente Medio

Grok sobre los "defectos significativos" en las respuestas a la guerra en Oriente Medio

© Getty Images

portugués

A medida que la verificación de datos por parte de periodistas en plataformas como Facebook disminuye gradualmente, cada vez más usuarios de Internet recurren a herramientas de inteligencia artificial como Grok para encontrar información confiable, pero las respuestas que reciben a veces los exponen a información errónea.

Según el estudio publicado este martes por el Laboratorio de Investigación Forense Digital (DFRLab) del Atlantic Council, un centro de estudios estadounidense, el desempeño de Grok durante los primeros días del conflicto entre Israel e Irán "reveló fallas significativas y demostró las limitaciones del chatbot para proporcionar información precisa, confiable y consistente en tiempos de crisis".

El análisis involucró 130.000 mensajes en múltiples idiomas en la plataforma X, que integra el chatbot Grok, y determinó que este último "tuvo dificultades para autenticar el contenido generado por IA".

Por ejemplo, después de los ataques de represalia iraníes contra Israel, Grok ofreció respuestas muy diferentes a instrucciones similares sobre imágenes generadas por IA de un aeropuerto destruido, que acumularon millones de visitas en X.

Las respuestas oscilaron, a veces en el mismo minuto, entre negar la destrucción del aeropuerto y confirmar que había sido alcanzado por atentados.

En algunas respuestas, Grok afirmó que un misil disparado desde Yemen fue la causa del daño, mientras que en otras identificó falsamente el aeropuerto en cuestión como ubicado en Beirut, Gaza o Teherán.

Según los expertos, Grok ya ha sido "pillada" en sus respuestas de verificación de hechos durante el reciente conflicto entre India y Pakistán y durante las protestas en Los Ángeles contra las políticas antiinmigración de Donald Trump.

El mes pasado, el servicio de inteligencia artificial del empresario sudafricano Elon Musk también causó controversia cuando se refirió erróneamente al "genocidio blanco" en Sudáfrica, un error que xAI luego atribuyó a una "modificación no autorizada".

Lea también: La UE aborda los conflictos en Ucrania y Oriente Medio tras la cumbre de la OTAN

noticias ao minuto

noticias ao minuto

Noticias similares

Todas las noticias
Animated ArrowAnimated ArrowAnimated Arrow