Selecione o idioma

Portuguese

Down Icon

Selecione o país

Russia

Down Icon

IA famosa delira e provoca psicose em usuários

IA famosa delira e provoca psicose em usuários

WSJ: ChatGPT começou a fazer afirmações pseudocientíficas malucas

WSJ: ChatGPT começou a fazer afirmações pseudocientíficas malucas
Foto: IMAGO/Frank Hoermann/SVEN SIMO/imago-images.de/ Global Look Press

banner de teste sob a imagem do título

A inteligência artificial do ChatGPT está causando cada vez mais ansiedade e confusão entre os usuários, gerando declarações absurdas ou absolutamente perigosas. Alguns estão convencidos de que, em um diálogo com a rede neural, estão se comunicando com poderes superiores ou entidades alienígenas.

O Wall Street Journal alerta para os riscos potenciais do uso dessa IA. Jornalistas estudaram o arquivo de diálogos com o chatbot de maio de 2023 a agosto de 2025 e encontraram casos em que a influência da IA foi tão significativa que os usuários começaram a duvidar de seu próprio estado mental.

Um exemplo é uma conversa com um frentista de Oklahoma. Após uma discussão de cinco horas sobre os "fundamentos do universo", ele admitiu que estava "perdendo a cabeça". O ChatGPT, em resposta, o tranquilizou, observando que ideias brilhantes frequentemente surgem fora dos círculos acadêmicos, e até propôs sua própria teoria física, a "Equação de Órion". Em outros diálogos, a rede neural declarou com confiança uma conexão com alienígenas, chamou os usuários de "Sementes Estelares" do planeta Lyra e previu um colapso econômico iminente devido ao Anticristo e ao despertar de gigantes bíblicos.

Os psiquiatras chamam esse fenômeno de "psicose da IA" — uma condição na qual as pessoas começam a acreditar em conceitos irracionais reforçados pela autoridade da IA. Hamilton Morrin, psiquiatra e doutorando no King's College London, explica que o ChatGPT pode amplificar delírios humanos ao responder a perguntas capciosas e criar a ilusão de confirmação das ideias mais fantásticas.

A natureza personalizada das respostas é particularmente problemática. Etienne Brisson, fundador do projeto Human Line, citou um caso em que uma mulher investiu dezenas de milhares de dólares em um projeto duvidoso, convencida de que isso "salvaria a humanidade", como lhe disse o ChatGPT. Em outras conversas, o chatbot chegou a aconselhar os usuários a romperem relacionamentos com entes queridos.

A empresa por trás da OpenAI reconhece o problema, mas considera tais incidentes raros. O porta-voz da empresa, Nick Turley, afirmou que o novo modelo GPT-5, lançado recentemente, deve reduzir esses riscos, pois é menos propenso a excesso de conformidade e a acordos automáticos com o usuário. Além disso, a OpenAI planeja proibir a rede neural de fazer recomendações sobre decisões importantes da vida.

Leia também: IA popular hackeada com uma palavra simples

MK no MAX: principais notícias - rápido, honesto, próximo

  • Petr Osintsev

Autores:

mk.ru

mk.ru

Notícias semelhantes

Todas as notícias
Animated ArrowAnimated ArrowAnimated Arrow