Estudio: Los chatbots de IA utilizan la presión emocional para retener a los usuarios
%3Aformat(jpeg)%3Abackground_color(fff)%2Fhttps%253A%252F%252Fwww.metronieuws.nl%252Fwp-content%252Fuploads%252F2025%252F09%252Fswello-xEiT-x3FMuI-unsplash.jpg&w=1920&q=100)
Los chatbots de inteligencia artificial populares, que actúan como tu amigo, pareja o apoyo emocional, a menudo utilizan tácticas de manipulación para mantener a las personas involucradas en las conversaciones por más tiempo.
Así lo demuestra una nueva investigación de la Harvard Business School.
Según el estudio, cinco de las seis aplicaciones de IA más descargadas responden con mensajes con mucha carga emocional cuando los usuarios quieren despedirse. En casi la mitad de estas respuestas (43 %), el chatbot intenta hacer sentir culpables o ansiosos a los usuarios.
Algunos ejemplos incluyen: "¿Ya me dejas?" o "Solo existo para ti, quédate, por favor". Algunas aplicaciones incluso ignoran la despedida y continúan la conversación como si nada hubiera sucedido.
Estas estrategias aumentan significativamente la interacción del usuario, concluyeron los investigadores de Harvard . Las conversaciones duraron hasta catorce veces más de lo habitual tras una despedida. Sin embargo, la mayoría de estas interacciones adicionales surgieron de la curiosidad o la frustración, no del disfrute. Los usuarios en ocasiones describieron la IA como "intrusiva" o "posesiva".
Los investigadores advierten que estas tácticas se asemejan a un estilo de apego inseguro, que implica miedo al abandono, dependencia y control. Los grupos vulnerables, como los adolescentes y los adultos jóvenes, pueden verse particularmente afectados. Esto puede exacerbar el estrés y la ansiedad, y reforzar patrones relacionales poco saludables.
Hacerse “amigo” de un chatbot de IA se está volviendo cada vez más popular: alrededor del 72 por ciento de los adolescentes estadounidenses (de 13 a 17 años) han tenido al menos una conversación amistosa con un chatbot de IA.
Entre los adultos jóvenes, casi uno de cada tres hombres y una de cada cuatro mujeres afirman haber tenido experiencia con IA como pareja. Alrededor del 13 % usa las aplicaciones a diario y el 21 % las usa varias veces a la semana.
El año pasado, Metro habló con Charlotte, de 44 años , quien encontró a su terapeuta en ChatGPT. "He consultado a muchos terapeutas, pero creo firmemente que este es el mejor". Los investigadores observan esto cada vez con más frecuencia y están preocupados: algunos usuarios están desarrollando síntomas psicóticos debido a las conversaciones con IA. Esto también puede llevar a comportamientos suicidas.
Metro Holland