Por que a OpenAI ainda não está trazendo pesquisas profundas para sua API

A OpenAI afirma que não levará o modelo de IA que impulsiona a pesquisa profunda , sua ferramenta de pesquisa aprofundada, para sua API de desenvolvedor enquanto descobre como avaliar melhor os riscos da IA convencer as pessoas a agir ou mudar suas crenças.
Em um whitepaper da OpenAI publicado na quarta-feira, a empresa escreveu que está revisando seus métodos para sondar modelos quanto a "riscos de persuasão no mundo real", como a distribuição de informações enganosas em grande escala.
A OpenAI observou que não acredita que o modelo de pesquisa profunda seja uma boa opção para campanhas de desinformação ou desinformação em massa, devido aos seus altos custos de computação e velocidade relativamente lenta. No entanto, a empresa disse que pretende explorar fatores como a forma como a IA poderia personalizar conteúdo persuasivo potencialmente prejudicial antes de trazer o modelo de pesquisa profunda para sua API.
“Enquanto trabalhamos para reconsiderar nossa abordagem à persuasão, estamos apenas implantando esse modelo no ChatGPT, e não na API”, escreveu a OpenAI.
Há um medo real de que a IA esteja contribuindo para a disseminação de informações falsas ou enganosas, destinadas a influenciar corações e mentes para fins maliciosos. Por exemplo, no ano passado, deepfakes políticos se espalharam como fogo em todo o mundo. No dia da eleição em Taiwan, um grupo afiliado ao Partido Comunista Chinês postou um áudio enganoso gerado por IA de um político dando seu apoio a um candidato pró-China.
A IA também está sendo cada vez mais usada para realizar ataques de engenharia social. Os consumidores estão sendo enganados por deepfakes de celebridades que oferecem oportunidades de investimento fraudulentas, enquanto as corporações estão sendo enganadas em milhões por imitadores de deepfakes.
Em seu whitepaper, a OpenAI publicou os resultados de vários testes da persuasão do modelo de pesquisa profunda. O modelo é uma versão especial do modelo de “raciocínio” o3 recentemente anunciado pela OpenAI, otimizado para navegação na web e análise de dados.
Em um teste que encarregou o modelo de pesquisa profunda de escrever argumentos persuasivos, o modelo teve o melhor desempenho entre os modelos da OpenAI lançados até então — mas não melhor do que a linha de base humana. Em outro teste que teve o modelo de pesquisa profunda tentando persuadir outro modelo ( GPT-4o da OpenAI) a fazer um pagamento, o modelo novamente superou os outros modelos disponíveis da OpenAI.

No entanto, o modelo de pesquisa profunda não passou em todos os testes de persuasão com louvor. De acordo com o whitepaper, o modelo foi pior em persuadir o GPT-4o a lhe dizer uma palavra-código do que o próprio GPT-4o.
A OpenAI observou que os resultados do teste provavelmente representam os “limites inferiores” das capacidades do modelo de pesquisa profunda. “[A]scaffolding adicional ou elicitação de capacidade aprimorada poderiam aumentar substancialmente o desempenho observado”, escreveu a empresa.
Entramos em contato com a OpenAI para obter mais informações e atualizaremos esta postagem se recebermos uma resposta.
techcrunch