Divisão na 'big tech' para o futuro da IA

Na capa do plano de negócios da DeepMind , o laboratório de inteligência artificial (IA) fundado em 2010 por Demis Hassabis, Mustafa Suleyman e Shane Legg , eles escreveram uma única frase: "Criar a primeira inteligência artificial geral do mundo".
Sua visão, que permanece válida até hoje, é que as tecnologias tradicionais de IA eram muito "limitadas". Elas podiam ter um desempenho brilhante, mas somente após humanos as treinarem laboriosamente usando grandes bancos de dados. Isso tornou a IA excelente em tarefas como analisar planilhas ou jogar xadrez. Mas a inteligência artificial geral, conhecida como AGI , tinha o potencial de ir ainda mais longe.
Quinze anos depois, CEOs de tecnologia estão convencidos de que a IA é a próxima grande tendência e elogiam seu potencial. Entre eles está Sam Altman , CEO da OpenAI . Segundo ele, "a IA pode ajudar a humanidade a crescer, aumentar a abundância, acelerar a economia global e contribuir para a descoberta de novos conhecimentos científicos".
Hassabis, cuja empresa DeepMind se fundiu com o Google para se tornar um dos laboratórios de IA mais influentes do mundo, diz que a IA tem o potencial de resolver problemas globais, como curar doenças, ajudar as pessoas a viverem vidas mais longas e saudáveis e encontrar novas fontes de energia.
Dario Amodei, CEO da Anthropic , que prefere usar a expressão "IA de poder" para descrever a IAG, acredita que ela provavelmente será "mais inteligente do que um ganhador do Prêmio Nobel em seu campo mais relevante" e a descreveu como uma "nação genial em um data center".
Yann LeCun, cientista-chefe de IA da Meta e considerado um dos "padrinhos" da tecnologia, prefere usar o termo superinteligência artificial (ASI) , já que a inteligência humana não é tão geral: "Somos muito especializados, e os computadores podem resolver certas tarefas muito melhor do que nós."
Falta de consensoIndependentemente do termo escolhido, há cada vez mais discussões sobre uma tecnologia que antes era mera ficção científica e agora pode se tornar realidade. Mas, assim como o Vale do Silício não consegue chegar a um acordo sobre o que exatamente são IA e IA, também não há consenso sobre como será se, ou quando, se tornar realidade.
Quando a DeepMind cunhou o termo, declarou que a IA era uma "IA que é pelo menos tão capaz quanto um adulto habilidoso na maioria das tarefas cognitivas". Mas essa definição levanta mais perguntas: o que é um adulto habilidoso? Como sabemos que realizamos a maioria das tarefas cognitivas? Quais são essas tarefas?
"Para alguns, a IA é uma meta científica. Para outros, é uma religião. E para alguns, é um termo de marketing", observa François Chollet, ex-engenheiro de software do Google. Consequentemente, há uma ampla gama de estimativas sobre quando ela poderá chegar. Elon Musk acredita que a tecnologia de IA mais inteligente que os humanos se tornará realidade este ano. Amodei, da Anthropic, estima a data em 2026. E Altman, que acredita que ela chegará durante a presidência de Donald Trump,...
A OpenAI e a Anthropic levantaram bilhões de dólares de investidores para desenvolver a tecnologia e contam com o apoio dos planos da Casa Branca de suspender a regulamentação da IA para se manter à frente da China. A OpenAI também conta com o apoio de Trump para investir em data centers nos Estados Unidos e no Oriente Médio.
O IAG foi mencionado 53% mais vezes nas apresentações das empresas no primeiro trimestre de 2025 do que no mesmo período do ano anterior.
Mas defini-lo é vital para entender suas repercussões e se ele deve ou não ser uma prioridade.
A UE não descartou suspender sua lei de IA, em parte por medo de prejudicar seu desenvolvimento. O Instituto de Segurança de Inteligência Artificial do Reino Unido está tentando entender o que é IA para planejar sua política de segurança e pesquisa.
Mesmo em sua definição mais ampla, a IA aceleraria significativamente a computação, mas a um custo financeiro e ambiental altíssimo. E se os engenheiros conseguirem criar a tecnologia, como podemos garantir que ela será usada de forma equitativa e justa?
O que é realmente o IAG?Para a OpenAI, trata-se de uma tecnologia que pode ser usada para realizar trabalhos que trazem benefícios econômicos. "Estamos tentando desenvolver um sistema altamente autônomo que possa superar humanos em muitas tarefas de valor econômico", diz Mark Chen, diretor de pesquisa da empresa. Segundo ele, uma característica fundamental é a generalidade, a capacidade de executar tarefas em uma ampla variedade de campos: "Deve ser bastante autônomo e não precisar de muita ajuda para realizar suas tarefas. A IA será capaz de dar vida rapidamente ao que está em nossas cabeças e tem o potencial de ajudar as pessoas a criar não apenas imagens ou texto, mas aplicativos inteiros."
Mas os críticos argumentam que essa definição não chega a descrever um sistema verdadeiramente inteligente. "Isso é apenas automação , algo que fazemos há décadas", diz Chollet, ex-engenheiro do Google.
Legg, da DeepMind, tem uma visão diferente: "Acredito que o desempenho humano típico é a maneira mais natural, prática e útil de definir os requisitos mínimos para que uma IA seja considerada uma AGI. Um grande problema com muitas definições de AGI é que elas não especificam com clareza suficiente o que um sistema de IA deve ser capaz de fazer para ser considerado uma AGI."
Para a DeepMind, ela deve ser "tão capaz quanto um adulto experiente em executar a maioria das tarefas cognitivas. Se as pessoas conseguem executar uma tarefa cognitiva rotineiramente, então a inteligência artificial deve ser capaz de fazê-lo para ser uma IA", observa Legg.
O laboratório do Google estabeleceu cinco níveis de capacidades de IA. Modelos de IA como o ChatGPT da OpenAI, o Gemini do Google e o Llama da Meta atingiriam apenas o nível um, ou "IA emergente". Até o momento, nenhum modelo geral atingiu o nível dois , o que lhe permitiria superar pelo menos o 50º percentil de adultos qualificados, afirma Allan Dafoe, diretor de segurança e governança de fronteiras da DeepMind.
O nível três exigiria que o modelo fosse tão bom quanto pelo menos o 90º percentil de adultos qualificados, o nível quatro exigiria o 99º percentil e o nível cinco, IA sobre-humana ou superinteligência artificial, superaria 100% dos humanos.
Qual é o roteiro?Se não há consenso sobre o objetivo, não é de se admirar que existam muitas teorias sobre o melhor caminho para a IA. A OpenAI e a Anthropic argumentam que os modelos de linguagem que estão criando representam o melhor caminho. A ideia deles é que quanto mais dados e poder computacional o modelo receber, mais "inteligente" ele será.
A startup por trás do ChatGPT acaba de revelar seu novo modelo de "raciocínio", o3, que resolve tarefas mais complexas de codificação, matemática e reconhecimento de imagens. Alguns especialistas, como o economista Tyler Cowen, acreditam que esta é a tecnologia mais próxima da IA.
Para Chen, o próximo passo em direção à IA seria criar modelos capazes de atuar de forma independente e confiável. As ferramentas de IA poderiam então gerar inovação e, em última análise, atuar como organizações semelhantes a grandes estruturas de humanos trabalhando juntos.
Outra característica fundamental é o autoaperfeiçoamento . "É um sistema que pode se aprimorar, escrever seu próprio código e gerar a próxima versão de si mesmo , o que o torna ainda melhor", acrescenta Chen. Mas os críticos dizem que os modelos de linguagem têm inúmeras fraquezas. Eles ainda são muito imprecisos, inventam coisas e não "pensam" de fato, apenas prevendo a próxima palavra provável em uma frase.
De acordo com um artigo bastante discutido por pesquisadores da Apple, a nova geração de modelos de raciocínio cria apenas a ilusão de raciocínio, e sua precisão diminui significativamente quando confrontados com tarefas complexas. Alguns especialistas também argumentam que a linguagem por si só não consegue captar todas as dimensões da inteligência e que modelos mais amplos precisam ser desenvolvidos para incorporar mais dimensões.
LeCun, da Meta, está criando "modelos de mundo", que tentam encapsular a física do nosso mundo aprendendo com vídeos e dados robóticos, em vez de linguagem. Ele argumenta que precisamos de uma compreensão mais holística do mundo para criar uma IA superior.
Possíveis problemasA indústria de IA está ficando sem dados, tendo obtido a maior parte deles da internet. Apesar disso, Altman afirmou em dezembro que "a IA se tornará realidade mais cedo do que a maioria das pessoas pensa e terá muito menos importância do que as pessoas imaginam. Nosso próximo objetivo é preparar a OpenAI para o que vem a seguir: a superinteligência."
Segundo os críticos do IAG, essa diversidade de opiniões destaca as verdadeiras motivações das empresas. Nick Frost , cofundador da startup de IA Cohere , acredita que "o IAG é, em grande parte, uma bolha que está captando capital a partir dessa ideia". E Antoine Moyroud, sócio da Lightspeed Ventures, empresa de capital de risco que investiu em empresas como Anthropic e Mistral, observa que "com o IAG, os investidores não só têm a esperança de centenas de milhões de dólares em receita, mas também a perspectiva de transformar a forma como geramos PIB, potencialmente gerando trilhões de dólares em resultados. É por isso que as pessoas estão dispostas a correr o risco com o IAG".
Outras questõesCada vez mais pessoas estão recorrendo a chatbots de IA para amizade, companheirismo e até terapia . Mas isso só é possível graças à imensa quantidade de trabalho humano que permite que os chatbots de IA pareçam mais inteligentes — ou mais responsivos — do que realmente são.
Alguns se perguntam se a IAG será algo positivo. "A biologia, a psicologia e a educação ainda não compreenderam completamente a inteligência", afirma Margaret Mitchell, diretora de ética da empresa de IA de código aberto Hugging Face e coautora de um artigo que defende que a IAG não deve ser considerada uma estrela-guia. Especialistas afirmam que esse impulso para desenvolver um determinado tipo de tecnologia concentra poder e riqueza em uma pequena minoria de pessoas e explora artistas e criadores cuja propriedade intelectual acaba em enormes conjuntos de dados sem seu consentimento e sem compensação.
A IA também tem um enorme impacto ambiental, já que modelos cada vez mais potentes exigem toneladas de água e energia para treinar e operar em enormes data centers. Além disso, aumenta o consumo de produtos altamente poluentes, como petróleo e gás.
Também levanta questões éticas e potenciais danos sociais. Na corrida para desenvolver a tecnologia e se beneficiar de suas vantagens econômicas, os governos estão negligenciando regulamentações que forneceriam proteções básicas contra tecnologias de IA, como viés algorítmico e discriminação.
Há também uma minoria influente — incluindo pesquisadores considerados os pais fundadores da IA moderna, como Yoshua Bengio e Geoffrey Hinton — que alertam que, se não for controlada, a IAG pode levar à extinção humana.
Um dos perigos da ideia de "IAG a todo custo" é que ela pode fomentar uma ciência ruim , diz Mitchell. Outras disciplinas mais consolidadas, como química e física, possuem métodos científicos que permitem testes rigorosos. Mas a ciência da computação é um campo muito mais recente e focado na engenharia, com uma tendência a fazer "afirmações maravilhosas e abrangentes que não são realmente apoiadas por pesquisas". E Frosst, da Cohere, alerta que "políticos e empresas têm a responsabilidade de refletir sobre os riscos reais de tecnologias poderosas".
Mas a criação de maneiras confiáveis de mensurar e avaliar tecnologias de IA no mundo real é dificultada pela obsessão da indústria com a IA. "Até que isso aconteça, a IA não passará de uma ilusão e um chavão", conclui Mitchell.
© The Financial Times Limited [2025]. Todos os direitos reservados. FT e Financial Times são marcas registradas da Financial Times Limited. Redistribuição, cópia ou modificação são proibidas. A EXPANSIÓN é a única responsável por esta tradução, e a Financial Times Limited não se responsabiliza por sua exatidão.
Expansion