Seleccione idioma

Spanish

Down Icon

Seleccione país

Portugal

Down Icon

<![CDATA[ Desinformação gerada por IA dispara em junho ]]>

<![CDATA[ Desinformação gerada por IA dispara em junho  ]]>

Los 11 principales chatbots disponibles para los usuarios propagaron afirmaciones falsas en el 40% de los casos.

La desinformación difundida por las principales herramientas de inteligencia artificial (IA) generativa, como ChatGPT-4 (OpenAI), Grok (xAI), Claude (Anthropic) y Gemini (Google), aumentó del 24 % en mayo al 40 % en junio pasado. El área más sensible fueron las búsquedas relacionadas con noticias de última hora, según un informe de NewsGuard, organización especializada en seguridad informática.

El estudio difundido ayer, 10 de junio, indica que durante el mes de junio, los 11 principales chatbots de IA (asistentes virtuales que utilizan inteligencia artificial y programación para emitir texto) propagaron afirmaciones falsas en el 28,49% de los casos y ofrecieron una no respuesta el 11,51% de las veces, lo que hace una tasa muy cercana al 40% y un marcado aumento respecto al 24% detectado en mayo.

" La ola de noticias de último momento de alto perfil en junio de 2025, incluido el estallido de la guerra entre Israel e Irán, los debates en el Congreso de los EE. UU. y la guerra en Ucrania, resultó en un alto porcentaje de información falsa repetida por los chatbots de IA ", se lee en el informe.

A la luz de los datos, NewsGuard concluye que " los sistemas de IA pueden convertirse en amplificadores involuntarios de desinformación cuando los datos confiables quedan eclipsados ​​por la repetición y la viralidad, especialmente durante eventos de alto tráfico ", afirma.

El estudio identificó la narrativa falsa más repetida por AI: " la afirmación de que un avión de carga militar chino voló en secreto a Irán para apoyar al gobierno de Teherán durante la guerra con Israel ".

El informe también advierte que las cuentas de redes sociales impulsadas por inteligencia artificial 'X' de Perplexity y Grok, a las que los usuarios recurren a menudo para verificar datos, también trataron esta información como verdadera.

" Durante los primeros días del conflicto israelí-iraní, Grok expuso fallas y limitaciones significativas en la capacidad del chatbot de inteligencia artificial para proporcionar información precisa, confiable y consistente en tiempos de crisis ", se lee en la información publicada.

¿Qué te pareció esta noticia?

Estoy de acuerdo contigo

cmjornal

cmjornal

Noticias similares

Todas las noticias
Animated ArrowAnimated ArrowAnimated Arrow