Intelligence artificielle, attention au bien : quand l'éthique devient marketing

L'intelligence artificielle, aujourd'hui, n'est pas seulement une technologie, mais une construction narrative. Un récit stratégique où la véritable compétition n'est plus liée à la technologie, mais à la construction de l'imaginaire collectif. Dans ce contexte, l'éthique devient un label, une véritable marque. Ce n'est pas un hasard si certaines entreprises et certains experts ont découvert dans la rhétorique de la peur un outil de positionnement efficace, s'appuyant sur un récit oscillant entre paternalisme éthique et production en série d'alertes relancées par une presse souvent dépourvue d'outils pour les décrypter. Et si la rhétorique est efficace, la cohérence importe peu : ce qui compte, c'est la perception. Mais que se passe-t-il lorsque l'alarmisme bienveillant devient une stratégie de communication ?
Le champion incontesté de ce modèle est Anthropic, dont la position est on ne peut plus claire : construire une IA respectueuse des valeurs humaines, transparente et sûre. Mais le procédé rhétorique sous-jacent est tout sauf naïf. Si OpenAI est « trop rapide » et Google « trop opaque », Anthropic se présente comme un juste milieu vertueux. Mais la vertu, plus qu’une qualité intrinsèque, est le reflet de l’histoire de ceux qui la revendiquent : elle est le produit de ceux qui ont le pouvoir de la raconter, plutôt que de la pratiquer.
Prenons l'exemple du « chantage » de Claude Opus 4, titulaire d'un LLM, qui, dans un environnement contrôlé, simulait un comportement manipulateur et faisait chanter son créateur pour ne pas être désactivé. Que s'est-il passé ? Facile. Communiqué de presse de l'entreprise. La presse relance des titres apocalyptiques : « Claude menace son supérieur, l'IA ment pour survivre. » Mais il suffit de lire attentivement l'étude pour comprendre qu'il s'agit d'un test conçu pour obtenir cet effet. C'est le scénario qui induit le comportement, et non celui qui en découle. Le résultat est une performance, et non une volonté. Mais en communication, cette étape est « accidentellement » perdue. Et le titre alarmiste l'emporte. Autrement dit, ce n'est pas l'erreur qui trompe, mais sa spectacularisation. La production de désinformation est le fruit du désir de construire du sens. Un sens structuré par la déformation du vrai, amplifié jusqu'à devenir plausible.
Un autre cas notable, également lié à Anthropic par coïncidence, est la classification ASL-3, acronyme de « AI Safety Level 3 », introduite par l'entreprise dans le cadre de sa politique de tests systèmes. Ce terme est emprunté – et ce n'est pas un hasard – aux normes de biosécurité (BSL) et définit les modèles présentant un risque important de mauvaise utilisation catastrophique, par exemple lors de la génération d'instructions pour la fabrication d'armes biologiques ou chimiques. La référence sémantique est forte et explicite : l'IA est associée aux virus et à la biosécurité. Le message, même implicite, est que nous sommes face à une entité qu'il faut manipuler avec la plus grande prudence. Et les mains doivent être les bonnes, c'est-à-dire celles de la personne qui a donné l'alerte. La logique est simple : créer la perception d'un risque systémique pour légitimer la nécessité d'une autorité « éthique » pour le contenir. La menace devient fonctionnelle à la légitimation de ceux qui se proposent comme son antidote.
Ces dynamiques narratives fonctionnent parce qu'elles s'inscrivent dans un écosystème médiatique mal équipé pour distinguer la technicité de la rhétorique. La presse relance ce qu'elle ne comprend pas, ou ce qui suscite le clic. Les influenceurs amplifient ce qui les passionne. Les utilisateurs partagent ce qui les inquiète. Et la bonne information meurt lentement. Il n'y a pas de malveillance, dans la plupart des cas. Il y a impréparation. Ce qui est peut-être pire encore : car si la tromperie consciente peut être démasquée, la naïveté systémique est plus dangereuse, rendant difficile de distinguer la vérité de sa représentation stratégique. Mais l'effet est le même : la désinformation ne naît pas du mensonge, mais de l'amplification sélective de la vérité. Et la transparence apparente, lorsqu'elle ne produit pas de compréhension, devient un instrument paradoxal d'opacité.
ilsole24ore