Seleccione idioma

Spanish

Down Icon

Seleccione país

America

Down Icon

Un estudio revela que la IA mejora mucho en los debates cuando sabe quién eres

Un estudio revela que la IA mejora mucho en los debates cuando sabe quién eres

Un nuevo estudio muestra que GPT-4 gana de manera confiable debates contra sus contrapartes humanas en conversaciones uno a uno, y la tecnología se vuelve aún más persuasiva cuando conoce su edad, trabajo y tendencias políticas.

Investigadores de la Escuela Politécnica Federal de Lausana (EPFL) en Suiza, la Universidad de Princeton y la Fundación Bruno Kessler en Italia emparejaron a 900 participantes del estudio con un compañero de debate humano o con el GPT-4 de OpenAI, un modelo de lenguaje extenso (LLM) que, por diseño, produce principalmente respuestas textuales a indicaciones humanas. En algunos casos, los participantes (tanto humanos como máquinas) tuvieron acceso a la información demográfica básica de sus contrapartes, como género, edad, educación, empleo, etnia y afiliación política.

La investigación del equipo, publicada hoy en Nature Human Behaviour, descubrió que la IA era un 64,4 % más persuasiva que los oponentes humanos cuando se le proporcionaba esa información personal; sin los datos personales, el desempeño de la IA era indistinguible del de los debatientes humanos.

“En las últimas décadas, la difusión de las redes sociales y otras plataformas en línea ha ampliado el potencial de persuasión masiva al permitir la personalización o 'microsegmentación' (la adaptación de los mensajes a un individuo o un grupo para mejorar su capacidad de persuasión)”, escribió el equipo.

Cuando se permitió a GPT-4 personalizar sus argumentos, se volvió significativamente más persuasivo que cualquier humano, aumentando la probabilidad de cambiar la opinión de alguien en un 81,2 % en comparación con los debates entre humanos. Cabe destacar que los debatientes humanos no se volvieron tan persuasivos al tener acceso a esa información personal.

“En el contexto de la persuasión, los expertos han expresado ampliamente su preocupación por el riesgo de que las LLM se utilicen para manipular las conversaciones en línea y contaminar el ecosistema informativo al difundir desinformación, exacerbar la polarización política, reforzar las cámaras de eco y persuadir a las personas a adoptar nuevas creencias”, añadieron los investigadores.

GPT-4 puede discutir contigo y, dados ciertos datos sobre ti, puede ser muy eficaz para convencerte de cambiar tu punto de vista, según descubrieron los investigadores. El equipo señala en la discusión del artículo que las LLM han sido criticadas anteriormente por generar y difundir discursos de odio, desinformación y propaganda; a gran escala, las LLM con información personal de los usuarios podrían utilizarse con fines maliciosos.

La investigación del equipo combina bien con una actualización reciente de ChatGPT que permite al modelo recordar más conversaciones de los usuarios (con su permiso), lo que significa que la IA puede tener acceso a un catálogo de información sobre sus usuarios.

Pero también hay buenas noticias, o malas, según se mire. GPT-4 fue muy eficaz persuadiendo a sus oponentes en temas menos controvertidos, pero con posturas más arraigadas (denominadas en la investigación "fuerza de opinión"), al bot le costó más convencer a los humanos de cambiar de opinión. En otras palabras, no hay indicios de que GPT-4 tenga más éxito que tú en el debate de Acción de Gracias.

Además, los investigadores descubrieron que GPT-4 tiende a usar un lenguaje más lógico y analítico, mientras que los debatientes humanos recurren más a los pronombres personales y las apelaciones emocionales. Sorprendentemente, la personalización no modificó drásticamente el tono ni el estilo de GPT-4; simplemente, hizo que sus argumentos fueran más concretos.

En tres de cada cuatro casos, los participantes humanos pudieron identificar correctamente a su oponente como una IA, lo que los investigadores atribuyen al estilo de escritura distintivo de GPT-4. Sin embargo, los participantes tuvieron dificultades para identificar a los oponentes humanos como humanos. En cualquier caso, las personas eran más propensas a cambiar de opinión cuando creían que estaban discutiendo con una IA que cuando creían que su oponente era humano.

El equipo responsable del estudio afirma que este experimento debería servir como prueba de concepto de lo que podría ocurrir en plataformas como Reddit, Facebook o X, donde los debates y los temas controvertidos son habituales, y los bots tienen una presencia muy consolidada . El artículo reciente demuestra que no se necesita un perfilado al nivel de Cambridge Analytica para que una IA cambie la mentalidad humana, algo que las máquinas lograron con tan solo seis tipos de información personal.

A medida que las personas recurren cada vez más a los LLM para obtener ayuda con tareas rutinarias, deberes, documentación e incluso terapia, es fundamental que los usuarios humanos sean cautelosos con la información que reciben. Resulta irónico que las redes sociales, antes promocionadas como el tejido conectivo de la era digital, fomenten la soledad y el aislamiento, como descubrieron dos estudios sobre chatbots en marzo.

Así que, incluso si te encuentras en un debate con un LLM, pregúntate: ¿Qué sentido tiene discutir un tema humano tan complejo con una máquina? ¿Y qué perdemos al dejar el arte de la persuasión en manos de algoritmos? Debatir no se trata solo de ganar una discusión; es algo inherentemente humano. Hay una razón por la que buscamos conversaciones reales, especialmente individuales: para construir conexiones personales y encontrar puntos en común, algo que las máquinas, con todas sus poderosas herramientas de aprendizaje, no son capaces de hacer.

gizmodo

gizmodo

Noticias similares

Todas las noticias
Animated ArrowAnimated ArrowAnimated Arrow