Especialistas alertam para a necessidade de cautela ao utilizar terapia com inteligência artificial.

Especialistas alertam para a necessidade de cautela ao utilizar terapia com inteligência artificial.Com o aumento da popularidade de chatbots de inteligência artificial como o ChatGPT , algumas pessoas estão recorrendo a eles para fins terapêuticos.
“Provavelmente foi há cerca de um ano e meio que comecei a ouvir rumores de pessoas usando ferramentas como o ChatGPT para apoio à saúde mental”, disse Lawrence Murphy, do Capítulo de Tecnologia e Soluções Inovadoras da Associação Canadense de Aconselhamento e Psicoterapia.

Murphy afirma que mesmo as atualizações recentes do ChatGPT para melhor reconhecer ideação suicida e psicose não são suficientes para torná-lo seguro. Aproximadamente 1,2 milhão de usuários semanais que interagem com o ChatGPT apresentam sinais de ideação suicida, de acordo com novos dados da OpenAI.
“O que é preciso entender sobre conselheiros e psicoterapeutas, e sobre nossa profissão, é que o alicerce absoluto, a base de tudo, é a ética e as melhores práticas”, disse ele. “Esses chatbots, esses grandes modelos de linguagem, não têm nada disso.”
Assista ao vídeo acima para saber mais sobre por que mais pessoas estão recorrendo à IA em busca de apoio para a saúde mental.


