Les grandes entreprises technologiques divisées sur l'avenir de l'IA

Sur la couverture de leur plan d'affaires pour DeepMind , le laboratoire d'intelligence artificielle (IA) fondé en 2010 par Demis Hassabis, Mustafa Suleyman et Shane Legg , ils ont écrit une seule phrase : « Créer la première intelligence artificielle générale au monde. »
Son point de vue, toujours valable aujourd'hui, est que les technologies d'IA traditionnelles étaient trop « limitées ». Elles pouvaient exceller, mais seulement après un entraînement laborieux par des humains à l'aide de vastes bases de données. Cela rendait l'IA excellente pour des tâches comme l'analyse de feuilles de calcul ou les échecs. Mais l'intelligence artificielle générale, appelée IAG , avait le potentiel d'aller encore plus loin.
Quinze ans plus tard, les PDG du secteur technologique sont convaincus que l'IA est la prochaine révolution et ne tarissent pas d'éloges sur son potentiel. Parmi eux, Sam Altman , PDG d' OpenAI . Selon lui, « l'IA pourrait contribuer à la croissance de l'humanité, à l'augmentation de l'abondance, à l'accélération de l'économie mondiale et à la découverte de nouvelles connaissances scientifiques. »
Hassabis, dont la société DeepMind a fusionné avec Google pour devenir l'un des laboratoires d'IA les plus influents au monde, affirme que l'IA a le potentiel de résoudre des problèmes mondiaux tels que guérir des maladies, aider les gens à vivre plus sainement et plus longtemps et trouver de nouvelles sources d'énergie.
Dario Amodei, PDG d' Anthropic , qui préfère utiliser l'expression « IA puissante » pour décrire l'AGI, estime qu'elle sera probablement « plus intelligente qu'un lauréat du prix Nobel dans son domaine le plus pertinent » et l'a décrite comme une « nation de génie dans un centre de données ».
Yann LeCun, scientifique en chef de l'IA chez Meta et considéré comme l'un des « parrains » de la technologie, préfère utiliser le terme de superintelligence artificielle (ASI) , car l'intelligence humaine n'est pas vraiment si générale : « Nous sommes très spécialisés, et les ordinateurs peuvent résoudre certaines tâches bien mieux que nous. »
Manque de consensusQuel que soit le terme finalement retenu, on parle de plus en plus d'une technologie autrefois de science-fiction qui pourrait désormais devenir réalité. Mais tout comme la Silicon Valley ne parvient pas à s'accorder sur ce que sont précisément l'AGI ou la SIA, il n'existe pas de consensus sur ce à quoi elle ressemblera si elle devient réalité.
Lorsque DeepMind a inventé le terme, il a déclaré que l'IAG était une « IA au moins aussi performante qu'un adulte compétent dans la plupart des tâches cognitives ». Mais cette définition soulève d'autres questions : qu'est-ce qu'un adulte compétent ? Comment savons-nous que nous avons accompli la plupart des tâches cognitives ? Quelles sont ces tâches ?
« Pour certains, l'IA générale est un objectif scientifique. Pour d'autres, c'est une religion. Et pour d'autres, c'est un terme marketing », note François Chollet, ancien ingénieur logiciel chez Google. Par conséquent, les estimations quant à son arrivée sont très diverses. Elon Musk pense qu'une technologie d'IA plus intelligente que les humains deviendra réalité cette année. Amodei d'Anthropic la fixe à 2026. Et Altman, lui, pense qu'elle arrivera sous la présidence de Donald Trump.
OpenAI et Anthropic ont levé des milliards de dollars auprès d'investisseurs pour développer cette technologie et bénéficient du soutien de la Maison Blanche, qui prévoit de suspendre la réglementation de l'IA afin de devancer la Chine. OpenAI bénéficie également du soutien de Trump pour investir dans des centres de données aux États-Unis et au Moyen-Orient.
L'IAG a été mentionné 53% de fois de plus dans les présentations des entreprises au premier trimestre 2025 qu'à la même période de l'année précédente.
Mais le définir est essentiel pour comprendre ses répercussions et savoir s’il doit ou non être une priorité.
L'UE n'a pas exclu de suspendre sa législation sur l'IA, notamment par crainte d'entraver son développement. L'Institut britannique de sécurité de l'intelligence artificielle (IAI) tente de comprendre ce qu'est l'IA afin de planifier sa politique et ses recherches en matière de sécurité.
Même dans sa définition la plus large, l'AGI accélérerait considérablement le calcul, mais à un coût financier et environnemental très élevé. Et si les ingénieurs parviennent à créer cette technologie, comment pouvons-nous garantir qu'elle sera utilisée de manière équitable et juste ?
Qu'est-ce que l'IAG réellement ?Pour OpenAI, il s'agit d'une technologie permettant d'effectuer des tâches génératrices de bénéfices économiques. « Nous cherchons à développer un système hautement autonome, capable de surpasser les humains dans de nombreuses tâches à valeur économique », explique Mark Chen, directeur de recherche de l'entreprise. Selon lui, l'une de ses principales caractéristiques est sa polyvalence, c'est-à-dire sa capacité à effectuer des tâches dans des domaines très variés : « L'IA devrait être relativement autonome et ne nécessiter que peu d'assistance. L'IA sera capable de donner vie rapidement à ce que nous avons en tête et pourrait nous aider à créer non seulement des images ou du texte, mais aussi des applications complètes. »
Mais les critiques affirment que cette définition est loin de décrire un système véritablement intelligent. « C'est simplement de l'automatisation , une pratique que nous pratiquons depuis des décennies », explique Chollet, ancien ingénieur chez Google.
Legg de DeepMind a un point de vue différent : « Je pense que la performance humaine typique est la manière la plus naturelle, la plus pratique et la plus utile de définir les exigences minimales pour qu'une IA soit considérée comme une IAG. Un problème majeur avec de nombreuses définitions d'IAG est qu'elles ne précisent pas assez clairement ce qu'un système d'IA doit être capable de faire pour être considéré comme une IAG. »
Pour DeepMind, il faut être « aussi capable qu'un adulte expérimenté d'effectuer la plupart des tâches cognitives. Si les individus peuvent effectuer une tâche cognitive de manière routinière, alors l'intelligence artificielle doit être capable de le faire pour être une IA », souligne Legg.
Le laboratoire appartenant à Google a défini cinq niveaux de capacités d'IA. Les modèles d'IA comme ChatGPT d'OpenAI, Gemini de Google et Llama de Meta n'atteindraient que le niveau un, ou « IA émergente ». Jusqu'à présent, aucun modèle général n'a atteint le niveau deux , qui lui permettrait de surpasser au moins le 50e percentile des adultes qualifiés, explique Allan Dafoe, directeur de la sécurité et de la gouvernance des frontières chez DeepMind.
Le niveau trois exigerait que le modèle soit au moins aussi bon que le 90e percentile des adultes qualifiés, le niveau quatre exigerait le 99e percentile et le niveau cinq, l'IA surhumaine ou la superintelligence artificielle, surpasserait 100 % des humains.
Quelle est la feuille de route ?S'il n'y a pas d'accord sur l'objectif, il n'est pas étonnant que de nombreuses théories aient été émises sur la meilleure voie vers l'IA. OpenAI et Anthropic affirment que les modèles de langage qu'ils créent représentent la meilleure voie. Leur idée est que plus le modèle sera alimenté en données et en puissance de calcul, plus il sera « intelligent ».
La startup à l'origine de ChatGPT vient de dévoiler son nouveau modèle de « raisonnement », o3, qui résout des tâches de codage, de mathématiques et de reconnaissance d'images plus complexes. Certains experts, comme l'économiste Tyler Cowen, estiment qu'il s'agit de la technologie la plus proche de l'IAG.
Pour Chen, la prochaine étape vers l'IA consisterait à créer des modèles capables d'agir de manière autonome et fiable. Les outils d'IA pourraient alors produire de l'innovation et, à terme, agir comme des organisations similaires à de grandes structures humaines travaillant ensemble.
Une autre caractéristique clé est l'auto-amélioration . « C'est un système capable de s'auto-améliorer, d'écrire son propre code et de générer la prochaine version de lui-même , ce qui le rend encore meilleur », ajoute Chen. Mais les critiques affirment que les modèles de langage présentent d'innombrables faiblesses. Ils restent très imprécis, ils inventent des choses et ne « réfléchissent » pas vraiment, se contentant de prédire le prochain mot probable dans une phrase.
Selon un article très commenté de chercheurs d'Apple, la nouvelle génération de modèles de raisonnement ne fait que créer l'illusion de la pensée, et leur précision diminue considérablement face à des tâches complexes. Certains experts affirment également que le langage seul ne peut pas saisir toutes les dimensions de l'intelligence et que des modèles plus larges doivent être développés pour en intégrer davantage.
LeCun de Meta crée des « modèles du monde », qui tentent d'encapsuler la physique de notre monde en s'appuyant sur des données vidéo et robotiques, plutôt que sur le langage. Il soutient que nous avons besoin d'une compréhension plus globale du monde pour créer une IA supérieure.
Problèmes possiblesLe secteur de l'IA est à court de données, la plupart provenant d'Internet. Malgré cela, Altman a déclaré en décembre : « L'IA deviendra une réalité plus tôt qu'on ne le pense, et son importance sera bien moindre qu'on ne le pense. Notre prochain objectif est de préparer OpenAI à l'avenir : la superintelligence. »
Selon les critiques d'IAG, cette diversité d'opinions met en lumière les véritables motivations des entreprises. Nick Frost , cofondateur de la start-up d'IA Cohere , estime qu '« IAG est avant tout une bulle spéculative qui lève des capitaux grâce à cette idée ». Antoine Moyroud, associé chez Lightspeed Ventures, une société de capital-risque ayant investi dans des entreprises comme Anthropic et Mistral, note : « Avec IAG, les investisseurs ont non seulement l'espoir de générer des centaines de millions de dollars de revenus, mais aussi la perspective de transformer notre façon de générer du PIB, avec un potentiel de résultats de plusieurs milliers de milliards de dollars. C'est pourquoi les gens sont prêts à prendre des risques avec IAG. »
Autres questionsDe plus en plus de personnes se tournent vers les chatbots IA pour trouver de l'amitié, de la compagnie, voire de la thérapie . Mais cela n'est possible que grâce à l'immense travail humain qui permet aux chatbots IA de paraître plus intelligents – ou plus réactifs – qu'ils ne le sont en réalité.
Certains se demandent si l'IAG sera une bonne chose. « La biologie, la psychologie et l'éducation n'ont pas encore pleinement compris l'intelligence », déclare Margaret Mitchell, directrice de l'éthique chez Hugging Face, une entreprise d'IA open source, et co-auteure d'un article soutenant que l'IAG ne devrait pas être considérée comme une étoile polaire. Les experts affirment que cette volonté de développer un certain type de technologie concentre le pouvoir et la richesse entre les mains d'une petite minorité et exploite les artistes et les créateurs, dont la propriété intellectuelle se retrouve dans d'énormes ensembles de données sans leur consentement et sans compensation.
L'IAG a également une empreinte environnementale considérable, car des modèles de plus en plus puissants nécessitent des quantités considérables d'eau et d'énergie pour s'entraîner et fonctionner dans des centres de données gigantesques. Elle augmente également la consommation de produits hautement polluants, comme le pétrole et le gaz.
Cela soulève également des questions éthiques et des risques sociaux potentiels. Dans la course au développement de cette technologie et à ses avantages économiques, les gouvernements négligent les réglementations qui offriraient des protections fondamentales contre les technologies d'IA, telles que les biais algorithmiques et la discrimination.
Il existe également une minorité influente – y compris des chercheurs considérés comme les pères fondateurs de l’IA moderne, tels que Yoshua Bengio et Geoffrey Hinton – qui avertissent que, si elle n’est pas maîtrisée, l’AGI pourrait conduire à l’extinction de l’humanité.
L'un des dangers de l'idée de « l'IA générale à tout prix » est qu'elle peut favoriser une science de mauvaise qualité , explique Mitchell. D'autres disciplines plus établies, comme la chimie et la physique, disposent de méthodes scientifiques permettant des tests rigoureux. Mais l'informatique est un domaine beaucoup plus récent et davantage axé sur l'ingénierie, avec une tendance à formuler des « affirmations merveilleuses et radicales qui ne sont pas réellement étayées par la recherche ». Frosst, de Cohere, avertit que « les responsables politiques et les entreprises ont la responsabilité de réfléchir aux risques réels des technologies de pointe ».
Mais la création de moyens fiables pour mesurer et évaluer les technologies d'IA dans le monde réel est entravée par l'obsession du secteur pour l'IA. « Tant que nous n'y parviendrons pas, l'IA ne sera qu'une illusion et un mot à la mode », conclut Mitchell.
© The Financial Times Limited [2025]. Tous droits réservés. FT et Financial Times sont des marques déposées de Financial Times Limited. Toute redistribution, copie ou modification est interdite. EXPANSIÓN est seul responsable de cette traduction, et Financial Times Limited décline toute responsabilité quant à son exactitude.
Expansion