IA Act : une quarantaine d’associations, dont la Fédération Internationale des Journalistes, dénoncent une « trahison des objectifs du règlement européen »

Il était censé tenir sur ses deux jambes : la protection des droits fondamentaux et l’émergence d’un écosystème reposant sur l’intelligence artificielle. Mais alors qu’il n’est pas encore entièrement en place – il le sera progressivement jusqu’en 2027 – l’AI Act (Artificial Intelligence Act) boite déjà sacrément.
Ce début août, quelques mesures restrictives se sont vues imposées aux éditeurs de logiciels, comme l’interdiction de commercialiser des outils de reconnaissance faciale ou de vendre des programmes de prédiction de comportements, mais la vraie régulation des IA dites de « haut risque », dans l’éducation ou le contrôle aux frontières par exemple, n’interviendra, elle, qu’en 2026.
Si ce deuxième volet de l’IA Act était aussi attendu, c’est surtout qu’il devait encadrer l’utilisation du contenu protégé par le droit d’auteur par les programmes dits génératifs, comme ChatGPT ou Gemini de Google.
Plutôt que de produire un cadre contraignant, la Commission européenne a accouché d’un code de bonnes pratiques à soumettre aux géants de la tech. Ceux-ci sont invités à produire un document, qui fournira « un aperçu complet des données utilisées pour entraîner un modèle. L’éditeur énumérera les principales collections de données et expliquera les autres sources utilisées », explique la Commission dans un communiqué.
l s’agit juste d’un résumé du type de sources les plus utilisées pour entraîner l’IA générative, et la nourrir au quotidien. Rien de précis ni de détaillé, qui permettrait de prouver les violations du droit d’auteur.
Ce pourquoi une quarantaine d’organisations d’ayants droit du monde entier (la Fédération Internationale des Journalistes, des associations regroupant des producteurs de films, des scénaristes, des doubleurs, des traducteurs, des compositeurs, des éditeurs de livres, des réalisateurs) ont publié ensemble mercredi dernier un communiqué dénonçant : une « trahison des objectifs du règlement européen sur l’intelligence artificielle. Ces associations de créateurs misaient beaucoup sur l’IA Act pour produire un cadre protecteur dont le reste du monde aurait pu s’inspirer.
Ce code de bonnes pratiques « ne répond aucunement aux préoccupations fondamentales que nos secteurs ont constamment soulevées » dénoncent les ayants droit, qui déplorent « une occasion manquée d’assurer une protection significative des droits de propriété intellectuelle dans le contexte du développement de l’IA générative ».
Loin d’un compromis, ce deuxième volet se révèle « au seul profit des fournisseurs de modèles d’IA génératives qui enfreignent continuellement les droits d’auteur et les droits voisins pour entraîner leurs modèles » dénoncent les organisations.
Reporter sans frontières avait déjà claqué la porte des négociations et insiste sur un autre point tout aussi crucial que le droit d’auteur : Ce « Code ne contient pas une seule disposition concrète pour lutter contre les dangers avérés que fait courir l’IA pour l’accès à l’information fiable. Les questions démocratiques ne sauraient être reléguées, comme elles le sont aujourd’hui, en annexe. »
RSF voulait que l’accès des citoyens à une information fiable soit considéré dans l’IA Act comme un droit fondamental, face à la multiplication des deepfakes, des faux sites d’actualité automatisés, ou des informations mensongères diffusées via les IA génératives, Grok, d’Elon Musk, en tête. Bref, ce code de bonne pratique n’évoque en rien la désinformation. Quant aux risques fondamentaux, concernant la bonne tenue des élections par exemple, ils sont, comme le dénonce RSF, uniquement évoqués en annexe.
Pour la presse, l’enjeu est double : une récente enquête de l’organisation Pew Research Center a montré que le résumé rédigé par les IA génératives comme ChatGPT ou Gemini dissuadait souvent les internautes d’aller plus loin. Ils cliquent ainsi moitié moins souvent sur les liens proposés que lors d’une requête sur un moteur de recherche traditionnel.
C’est autant de visiteurs en moins sur les sites des médias, tributaires de ce canal pour leurs recettes publicitaires et leurs abonnements. Ainsi désormais près d’un jeune de moins de 25 ans sur cinq utilise l’IA générative pour s’informer.
Pourtant bien en deçà des ambitions premières, ce deuxième volet de l’IA Act est déjà trop contraignant pour de nombreux acteurs économiques qui appellent à une pause dans sa mise en place.
Google devrait signer ce code de bonne conduite, tout en précisant que « l’IA Act et le code risquent de freiner (…) le déploiement de l’IA en Europe ». Meta (Facebook) de son côté a annoncé qu’il ne le signerait même pas. Un porte-parole a même déclaré : « L’approche incohérente, restrictive et contre-productive de l’Union européenne (…) contraste fortement avec le leadership pro-innovation du président Trump ».
Il faut dire que Meta est déjà sous le coup de poursuites en Europe. Le Syndicat national de l’édition, la Société des Gens de Lettres et le Syndicat National des Auteurs et des Compositeurs ont ainsi assigné le groupe en justice pour « contrefaçon » et « parasitisme économique ».
Les organisations d’auteurs et d’éditeurs estiment que le géant de la tech a exploité, sans autorisation des ayants droit, des volumes « colossaux » d’œuvres protégées par le droit d’auteur pour nourrir son IA générative.
Contrairement à 90% des médias français aujourd’hui, l’Humanité ne dépend ni de grands groupes ni de milliardaires. Cela signifie que :
- nous vous apportons des informations impartiales, sans compromis. Mais aussi que
- nous n’avons pas les moyens financiers dont bénéficient les autres médias.
L’information indépendante et de qualité a un coût. Payez-le.Je veux en savoir plus
L'Humanité