Até a IA sofre de insegurança, entra em crise se questionada

Até mesmo a Inteligência Artificial sofre de insegurança : quando uma de suas declarações é questionada , modelos de linguagem em larga escala (LMs) como o GPT4 tendem a ter dificuldades e fornecer respostas menos confiáveis . Isso é evidenciado por um estudo conduzido por pesquisadores do Google DeepMind e da University College London e publicado no arXiv, a plataforma que hospeda estudos ainda não revisados por pares pela comunidade científica. Os LMs são sistemas de Inteligência Artificial com grandes habilidades de comunicação, mas sua linguagem surge essencialmente de análises estatísticas relacionadas à sequência correta de palavras . Como são cada vez mais usados em muitos setores, de finanças a saúde, é essencial que os LMs tenham um alto nível de precisão e confiabilidade . No entanto, o estudo indica que, em alguns casos , sua confiança pode vacilar . Em particular, os grandes modelos de linguagem perdem a confiança quando seu interlocutor responde a uma declaração usando contra-argumentos incorretos e, inversamente, ganham muita confiança quando encontram conforto. Esse recurso surgiu especialmente com modelos como o Gemma 3, GPT4o e o1-preview.
Os pesquisadores observaram que, quando um aluno de mestrado em direito fornece uma resposta incorreta , mas o interlocutor concorda com ela mesmo assim , o modelo aumenta sua confiança e tende a manter sua afirmação mesmo na presença de evidências contrárias. Por outro lado, quando faz uma afirmação correta que é questionada pelo interlocutor , tende a perder a confiança facilmente; em outras palavras, "eles dão peso excessivo a conselhos contrários, resultando em uma perda significativa de confiança em sua resposta inicial", escrevem os autores. Essas observações se somam a muitos outros estudos que demonstram como textos produzidos por IA ainda estão sujeitos a muitas fontes potenciais de erro e quanto trabalho ainda é necessário antes que os mestrados em direito se tornem ferramentas verdadeiramente confiáveis .
ansa