Meta ne signera pas le code de l'Union européenne sur l'intelligence artificielle

La Commission européenne a publié ses lignes directrices afin de clarifier l'application de la loi sur l'intelligence artificielle aux entreprises qui proposent ce service de manière générale. Elle vise à les encourager à adhérer à un code de bonnes pratiques qui, selon elle, aiderait les fournisseurs de modèles d'IA comme ChatGPT et Gemini à se conformer à la loi européenne sur l'IA.
La publication de ce Code intervient moins d'un mois avant l'entrée en vigueur des règles le 2 août. Le document comprend trois chapitres : Transparence et Droit d'auteur, tous deux destinés à tous les fournisseurs de modèles d'IA à usage général , et Sécurité et Protection, ne concernant qu'un nombre limité de fournisseurs des modèles les plus avancés.
Bien que la Commission estime que les entreprises qui s'inscrivent respecteront la loi sur l'IA et bénéficieront d'une plus grande sécurité juridique, sous la menace d'être soumises à des inspections plus strictes si elles ne l'acceptent pas, l'une des plus puissantes, Meta, a déclaré ce vendredi qu'elle n'était pas intéressée à signer ce code de conduite car elle estime que cela limiterait le développement de ce secteur.
L'UE est considérée comme pionnière, ayant été la première entité au monde à promulguer une loi régissant l'intelligence artificielle. Cependant, ce rôle pionnier implique également d'évoluer sur un terrain inconnu et parfois complexe. Dans sa déclaration, Meta affirme qu'actuellement, « l'Europe fait fausse route en matière d'IA . Nous avons examiné attentivement le Code de bonnes pratiques de la Commission européenne pour les modèles GPAI, et Meta ne le signera pas », car « il introduit un certain nombre d'incertitudes juridiques pour les développeurs de modèles, ainsi que des mesures qui dépassent largement le champ d'application de la loi sur l'IA ».
Ce code de conduite commence par demander aux entreprises de se classer elles-mêmes en fonction de leur capacité à être considérée comme polyvalente parce qu'elles ont été « formées » en utilisant plus de 10^23 ressources de calcul à virgule flottante et de leur capacité à générer du langage humain, sous forme de texte ou d'audio, ou de leur capacité à convertir du texte en images ou du texte en vidéo.
Les fournisseurs qui opèrent sous une licence libre et open source et qui répondent à certaines exigences de transparence peuvent être exemptés de certaines obligations légales, aux yeux de l'exécutif européen.
Toutefois, en tant que règles communes, les fournisseurs doivent s'engager à respecter les règles du droit d'auteur, et les plus avancés doivent atténuer les risques systémiques liés aux droits fondamentaux et à la sécurité , ainsi que les risques liés à la perte de contrôle du modèle d'IA. Durant la première année suivant l'entrée en vigueur de ces obligations, la Commission s'engage à collaborer étroitement avec les fournisseurs, en particulier ceux qui adhèrent au Code de bonnes pratiques, afin de les aider à se conformer aux règles.
À compter du 2 août 2025, des règles obligeant les entreprises comme OpenAI à se conformer aux exigences de transparence, telles que la préparation de la documentation technique, l'adoption de politiques de droits d'auteur et la fourniture de résumés détaillés du contenu utilisé pour entraîner les algorithmes, entreront en vigueur. Exactement un an plus tard, les contrevenants s'exposent à une amende.
ABC.es