Seleccione idioma

Spanish

Down Icon

Seleccione país

Italy

Down Icon

La ilusión de la empatía digital: Por qué ChatGPT nunca podrá ser tu psiquiatra

La ilusión de la empatía digital: Por qué ChatGPT nunca podrá ser tu psiquiatra

“Nuestro objetivo no es mantener a las personas en la plataforma, sino ayudarlas a usarla de la mejor manera”. Así anunció OpenAI la última actualización de ChatGPT . El objetivo es claro: proteger el bienestar mental de los usuarios . ¿Cómo? Animándolos a tomarse un descanso y respondiendo a sus preguntas personales con más empatía . Pero vayamos paso a paso.

“Lleváis un rato charlando: ¿es buen momento para un descanso?”

La nueva actualización acaba de publicarse y ha involucrado a más de 90 médicos de más de 30 países, así como a un grupo asesor de expertos en salud mental , desarrollo juvenil e interacción persona-computadora, para intentar proteger a los usuarios más vulnerables . El primer paso fue la introducción de recordatorios que animan a los usuarios a tomar un descanso durante sesiones de chat especialmente largas. Si se diera esta situación, se abriría una ventana (una función ya probada con éxito en Instagram y TikTok) con la frase: "Llevas un rato chateando: ¿es un buen momento para un descanso?" y dos opciones: continuar o finalizar la sesión.

El novio perfecto (no) existe: en China es un chatbot de inteligencia artificial.
No más respuestas secas o inequívocas

La otra intervención se centró en cómo ChatGPT responderá a preguntas personales , como las relacionadas con las relaciones, el trabajo o situaciones emocionales complejas. En este caso, el chatbot no ofrecerá respuestas claras ni inequívocas , sino que invitará al usuario a una reflexión más profunda, sugiriéndole que considere diferentes perspectivas. El objetivo, explica la empresa, es nunca sustituir la autonomía del usuario, sino ofrecer una orientación respetuosa y responsable.

Probablemente estés usando mal la IA (y no lo sabes)
El 20% de la Generación Z utiliza ChatGPT como psicólogo

Sin embargo, el bienestar mental ha sido un tema central en ChatGPT durante varios meses. Se ha corrido la voz en redes sociales: "Usa ChatGPT como psicólogo. Hablo con él sobre todos mis problemas", dice una publicación. Y aunque las plataformas no divulgan datos de los usuarios, según una estimación de Mattia Della Rocca, profesor de Psicología de los Entornos Digitales en la Universidad de Tor Vergata, al menos el 20 % de la Generación Z podría haber usado IA al menos una vez como sustituto de la terapia.

Existe una conexión profunda entre la inclusividad, los derechos civiles y la ética de la inteligencia artificial.
Existe una conexión profunda entre la inclusividad, los derechos civiles y la ética de la inteligencia artificial.
Los riesgos asociados a la IA

Y no cabe duda de que ChatGPT es fácil de acceder (solo requiere unos clics), pero ¿cuáles son los riesgos reales de usar estas tecnologías de forma indebida? Uno de los mayores peligros es la presencia de las llamadas "alucinaciones" de la IA, es decir, respuestas absurdas o completamente inapropiadas. Ciertas respuestas podrían ser especialmente peligrosas en contextos relacionados con la depresión o la autolesión, ya que suponen el riesgo de que el sujeto realice acciones inapropiadas o dañinas.

Desnudos profundos y chatbots empáticos: la inteligencia artificial es la nueva frontera de la pornografía infantil
¿Dificultad de aprendizaje? Los resultados que confunden a los usuarios de IA

Pero eso no es todo. Según un estudio del MIT en Boston , el uso diario de ChatGPT y otras herramientas de inteligencia artificial tiene graves repercusiones en la capacidad de aprender, pensar y recordar . La investigación, pionera en su tipo, utilizó electrodos para medir la actividad cerebral de tres grupos de estudiantes: el primero con ChatGPT, el segundo con acceso a internet (pero sin herramientas de inteligencia artificial) y el tercero con otras herramientas más tradicionales. La tarea consistía en escribir tres textos breves sobre temas predefinidos en tres sesiones consecutivas, a lo largo de un trimestre.

Los resultados fueron inequívocos. Revelaron que los estudiantes que usaron modelos lingüísticos extensos (LLM) como ChatGPT para escribir sus textos mostraron peor memoria, menor actividad cerebral y menor implicación que quienes usaron los otros dos métodos. «El uso de LLM tuvo un impacto medible en los participantes, y si bien los beneficios fueron evidentes inicialmente, como demostramos a lo largo de cuatro meses, los participantes del grupo ChatGPT obtuvieron peores resultados que sus contrapartes del grupo de solo cerebro en todos los niveles: neuronal, lingüístico y de puntuación», explicaron los investigadores del MIT.

Escuchar va más allá de simplemente recibir palabras

En resumen, aunque estas actualizaciones buscan humanizar la inteligencia artificial, hemos visto que no puede reemplazar a un psicólogo. Sin duda, puede ayudar con el pensamiento, pero no con la sanación. Puede ofrecer escucha artificial, no relaciones humanas. Es una herramienta útil, pero no es un terapeuta. Y en una era donde la comunicación es instantánea, la escucha auténtica es una cualidad humana profunda , que va mucho más allá de la simple recepción de palabras.