Un procès concernant des questions relatives à l'intelligence artificielle ? La loi polonaise est claire.

La Pologne a déposé une plainte auprès de la Commission européenne concernant les activités d'Elon Musk en matière d'IA. Le chatbot Grok, provoqué par des utilisateurs du portail X, a publiquement insulté des responsables politiques polonais.
Qui est responsable de la haine générée par l'IA ? Selon les avocats, ce sont les personnes qui ont posé la question provocatrice et qui ont ensuite diffusé la réponse.
Le contenu généré par l'IA peut violer les droits personnels et être soumis au droit civil ou pénal, affirment les interlocuteurs du CIS.
L'intelligence artificielle d'Elon Musk a publié des messages offensants à l'encontre de personnalités politiques polonaises , dont Donald Tusk et Jarosław Kaczyński. Le 9 juillet, le ministre polonais du Numérique a adressé une lettre à la Commission européenne, soulignant que de tels messages pourraient constituer une « violation grave » de la loi européenne sur la modération des contenus , la loi sur les services numériques (DSA). La CE mène une enquête sur la plateforme depuis un an et demi. Le fil de discussion polonais vise à la compléter.
Comment se fait-il qu’un chatbot ait insulté des politiciens polonais ?Il existe un compte sur le réseau social X qui permet d'interagir avec le modèle de langage Grok. Les questions et réponses à l'intelligence artificielle sont accessibles à tous. Tout le monde peut participer à la conversation.
La semaine dernière, les règles de Grok ont été assouplies. Il pouvait répondre en utilisant des grossièretés et sans aucune rectitude politique. Lorsque les utilisateurs polonais ont pris connaissance des nouvelles règles, Grok a été incité à publier des messages vulgaires . L'intelligence artificielle a qualifié le député de la Coalition civique Roman Giertych de « clandestin » et de « menteur » et le Premier ministre Donald Tusk de « traître ayant vendu la Pologne à l'Allemagne et à l'UE ».
D'autres politiciens ont également été touchés. Les réponses générées par l'IA ont atteint un tel point que les politiciens et les journalistes polonais ont été traités de « fous ».
Un phénomène similaire a été observé partout dans le monde. Un tribunal turc a bloqué l'accès à un chatbot après que celui-ci a généré des réponses insultantes à l'encontre du président turc Recep Tayyip Erdogan.
Peu de temps après le scandale, Linda Yaccarino, directrice de la plateforme X, a démissionné de son poste et l' entreprise a publié une déclaration indiquant que sa direction était au courant des publications de Grok et travaillait à les supprimer, ainsi qu'à améliorer le modèle de formation du chatbot.
Les chatbots comme ChatGPT ou Grok peuvent-ils violer les droits personnels ?Selon les avocats que nous avons consultés, la loi polonaise indique clairement que les contenus générés par l'IA peuvent porter atteinte aux droits de la personne. Comme le rappelle l'avocat Mateusz Grosicki du cabinet Graś i Wspólnicy :
En vertu de l'article 23 du Code civil, les individus ont droit à la protection de leurs droits personnels, tels que la dignité, l'honneur, la réputation et l'image. Dans le cas des contenus générés par l'IA, la loi polonaise ne prévoit aucune exception à cette protection.
« Les personnes qui se sentent affectées par des propos offensants générés par l'IA peuvent faire valoir leurs droits en Pologne comme à l'étranger. Au niveau national, les victimes peuvent intenter une action civile pour protéger leurs droits personnels ou intenter des actions privées , exigeant des excuses, une indemnisation ou la suppression des contenus portant atteinte à leur réputation », ajoute Grosicki.
Il souligne toutefois que les personnalités publiques ou celles qui occupent des fonctions étatiques doivent être plus tolérantes à l’égard des critiques et des opinions controversées.
Qui peut être tenu responsable : l’utilisateur, le créateur de l’IA ou la plateforme ?Comme l'ont expliqué des avocats à WNP, la question de la responsabilité des contenus générés par l'IA est complexe. La responsabilité dépend de la personne qui a généré ou publié le contenu portant atteinte aux droits de la personne.
- N'oublions pas que même si tous les outils basés sur l'IA sont personnifiés et présentés comme des personnes artificielles dans les discussions publiques, ils ne se connectent pas eux-mêmes à l'alimentation électrique et ne prennent pas de décisions concernant l'intégration avec le site Web et l'écrasement des commentaires sur celui-ci - soulignent l'avocate Zuzanna Miąsko et le conseiller juridique Kacper Krawczyk du cabinet d'avocats Dubois i Wspólnicy.
« Au quotidien, avec des outils non automatisés, obtenir du contenu spécifique et potentiellement illicite auprès d'un chatbot nécessite que l'utilisateur formule une requête. Dans de telles circonstances, la situation est claire : en diffusant ce contenu, l'utilisateur viole les droits de la personne ou propage une diffamation, et il peut engager sa responsabilité pénale et civile », explique Zuzanna Miąsko.
Pouvez-vous vraiment répondre à la « question » ?Qu'en est-il de l'affaire Grok ? « La responsabilité peut incomber en premier lieu aux utilisateurs qui formulent délibérément des requêtes ou des questions à l'IA dans le but de susciter des réponses spécifiques et controversées. De tels actes peuvent être considérés comme une atteinte active aux droits de la personne et peuvent engager leur responsabilité civile, voire pénale, en cas de diffamation », confirme Mateusz Grosicki.
Il estime que les créateurs de systèmes d'IA pourraient également être tenus responsables s'ils ne garantissent pas que leurs outils disposent de protections adéquates et ne contrôlent pas ce qu'ils génèrent. Si les algorithmes sont mal conçus, produisant du contenu offensant ou diffamatoire, les créateurs pourraient être poursuivis en justice.
La responsabilité peut également s'appliquer aux plateformes sur lesquelles un tel contenu apparaît, en particulier si elles savent qu'il viole les droits personnels d'une personne et ne font rien à ce sujet, même si elles sont obligées de réagir conformément à leurs propres réglementations.
Pourquoi est-il si difficile de tenir les plateformes responsables de leur contenu ?Toutefois, comme le soutiennent les interlocuteurs du CIS, rechercher la responsabilité des plateformes est un processus long et difficile.
« Le principal problème est que les plateformes de réseaux sociaux comme X, Facebook, Instagram et TikTok ne réagissent pratiquement pas aux signalements de contenus diffamatoires ou offensants », admet l'avocate Zuzanna Miąsko. « À mon avis, la solution la plus efficace serait d'adapter la loi aux normes de communication actuelles, qui s'appliquent aux réseaux sociaux. Il est nécessaire de créer en Pologne un organisme doté d'une structure solide, capable de réagir efficacement et résolument aux contenus illégaux diffusés en ligne. Les fournisseurs de services numériques ne peuvent continuer à bénéficier de l'impunité pour les contenus publiés sur les plateformes dont ils sont responsables », déclare-t-elle.
L'Office des communications électroniques est censé être un tel organisme. Il a été désigné par le ministère des Affaires numériques comme coordinateur des services numériques en Pologne. Cependant, il n'est pas encore opérationnel.
« À mon avis, la faiblesse du système face à ces violations ne tient pas à un manque d'outils appropriés, mais à une inaction dans leur utilisation », déclare le conseiller juridique Kacper Krawczyk. « Je pense que nous devrions nous concentrer sur l'action réglementaire et le respect des obligations du fournisseur X au titre de la DSA (Digital Services Act – NDLR) – c'est-à-dire agir de manière systémique, principalement pour éviter un précédent d'impunité. Les outils des autorités de régulation sont bien plus préjudiciables aux fournisseurs de services numériques que les dommages et intérêts potentiels, qui sont intégrés dans les coûts de nombreuses solutions internet « modernes » », affirme-t-il.
Que peut faire une personne lésée par des publications écrites par l’IA ?Une personne qui se sent diffamée ou offensée par un contenu généré par l'IA doit :
- Sécurisez les preuves : prenez des captures d’écran, notez les liens et les dates de publication.
- Signalez la violation directement à la plateforme sur laquelle le contenu préjudiciable a été publié – la plupart d’entre elles fournissent des formulaires pour de tels signalements.
- Si cela s’avère inefficace, la partie lésée peut intenter une action civile pour la protection des droits de la personne, exigeant des excuses, la suppression du contenu ou une indemnisation.
- Dans les cas plus graves, par exemple en cas de diffamation, il est également possible de signaler l'affaire au parquet ou de déposer une plainte privée.
Comme le rappellent les experts, il convient de rappeler que si une plateforme opère dans l’Union européenne, elle est soumise aux dispositions du Digital Services Act, qui lui impose l’obligation de répondre aux contenus illicites.
TL;DR : Les systèmes d’IA ne sont responsables de rien, les humains le sont.L'intelligence artificielle, même la plus avancée, n'est pas une entité juridique. Une provocation pouvant donner lieu à diffamation peut entraîner des poursuites judiciaires, voire une responsabilité pénale. Comme le résume Kacper Krawczyk :
Dans le cas de l'IA, il faut cesser de la personnifier et rechercher la personne derrière les effets causés par les actions de l'algorithme : il arrive toujours que quelqu'un clique sur le bouton « Entrée » qui entraîne une violation. Les réglementations existantes doivent être interprétées dans cet esprit.
wnp.pl