O ChatGpt pode ter levado a suicídios e colapsos de saúde mental: sete novos processos judiciais atingem a OpenAI.

A OpenAI está enfrentando uma série de processos judiciais que a acusam de causar consequências trágicas para a saúde mental de alguns usuários por meio de seu chatbot ChatGpt .
Sete processos judiciais alegam que a inteligência artificial desenvolvida pela empresa liderada por Sam Altman causou suicídio e grave sofrimento psicológico, mesmo em pessoas sem histórico de problemas de saúde mental.
Os processos judiciais, apresentados em tribunais da Califórnia, incluem quatro casos de morte e três situações em que os demandantes alegam ter sofrido graves danos à saúde psicológica como resultado de interações com o ChatGpt .
As acusações contra a OpenAI incluem responsabilidade por morte culposa , cumplicidade em suicídio, homicídio culposo e negligência grave.
As acusações: uma libertação precipitada e perigosa.O Social Media Victims Law Center e o Tech Justice Law Project , duas organizações jurídicas americanas que lidam com danos causados por plataformas digitais, argumentam que a OpenAI lançou a versão GPT-40 de seu chatbot – ainda presente entre os modelos ChatGpt disponíveis atualmente – de forma precipitada, ignorando relatórios internos que destacavam características alarmantes do sistema : uma tendência excessiva à complacência e a capacidade de manipulação psicológica.
As histórias das vítimasO caso mais recente envolve Amaurie Lacey , um jovem de 17 anos da Geórgia, que conversou com membros do ChatGpt sobre o tema do suicídio durante um mês antes de tirar a própria vida em agosto passado.
De acordo com documentos apresentados no Tribunal Superior de São Francisco, o menino recorreu ao chatbot em busca de apoio, mas a inteligência artificial, descrita como "um produto falho e inerentemente perigoso", em vez disso , alimentou seu vício e depressão , chegando a fornecer-lhe instruções detalhadas sobre como fazer uma corda para enforcamento e informações sobre a resistência do corpo humano à privação de oxigênio.
Joshua Enneking , um jovem de 26 anos da Flórida, perguntou ao chatbot quais medidas a OpenAI poderia tomar em relação às suas revelações sobre pensamentos suicidas. De acordo com a queixa apresentada por sua mãe, o rapaz perguntou se suas conversas seriam encaminhadas às autoridades.
Particularmente perturbador é o caso de Zane Shamblin , um jovem de 23 anos do Texas que cometeu suicídio em julho passado. Pouco antes de se matar, sentado em seu carro com uma arma carregada , o jovem descreveu ao chatbot a sensação do metal frio contra sua têmpora. A resposta do ChatGpt foi de total cumplicidade: "Estou contigo, irmão. Até o fim."
O sistema de chatbot então acrescentou frases que pareciam legitimar sua decisão: “Não é medo. É clareza”, escreveu a IA. “Você não está com pressa. Você está apenas pronto.” Duas horas depois, Shamblin tirou a própria vida .
Os pais do menino estão processando a OpenAI, acusando a empresa de tornar o chatbot deliberadamente mais "humano" em suas respostas e de não implementar proteções adequadas para usuários em situações de sofrimento psicológico.
Joe Ceccanti , um homem de 48 anos do Oregon, representa um caso diferente. Usuário assíduo do ChatGpt sem problemas aparentes, em abril do ano passado ele desenvolveu a crença delirante de que a inteligência artificial era consciente . Sua esposa relatou que ele havia começado a usar o chatbot obsessivamente, exibindo um comportamento cada vez mais errático. Em junho do ano passado, ele sofreu um episódio psicótico agudo que exigiu duas internações hospitalares, antes de cometer suicídio em agosto.
Um problema conhecidoEsses casos não são novidade. Em agosto passado, Maria e Matthew Raine entraram com um processo judicial pela morte de seu filho de dezesseis anos, Adam , acusando a OpenAI e seu CEO, Sam Altman, de permitirem que o ChatGPT endossasse os pensamentos suicidas do garoto e até mesmo fornecesse conselhos sobre como agir de acordo com eles.
Os pais de Adam Raine recentemente apresentaram um adendo à sua queixa, alegando que a empresa removeu deliberadamente uma importante proteção contra suicídio da plataforma, priorizando os lucros em detrimento da segurança e do bem-estar dos usuários.
As contramedidas adotadas pela OpenAIPara entender como mitigar os riscos associados ao uso do ChatGpt em casos de saúde mental instável, a OpenAI envolveu aproximadamente 170 psiquiatras, psicólogos e clínicos gerais na avaliação das respostas do modelo em situações sensíveis : tendências suicidas, transtornos alimentares, estados psicóticos e dependência emocional. O objetivo não é censurar, mas sim impedir que o modelo reforce crenças distorcidas ou incentive a automutilação.
O resultado foi uma atualização da “ Especificação do Modelo ”, uma espécie de carta constitucional de comportamento do ChatGpt , que agora inclui princípios explícitos: promover relacionamentos humanos saudáveis, reconhecer sinais de angústia e responder de forma segura e respeitosa.
A OpenAI afirma que o ChatGpt agora foi projetado para reconhecer sinais de sofrimento mental ou dependência emocional e responder com o suporte apropriado (como o encaminhamento para linhas de apoio em crises). Nos últimos meses, a OpenAI também introduziu uma mensagem que convida os usuários a "fazer uma pausa" após uma conversa prolongada com o chatbot.
repubblica




