Een rechtszaak over vragen over kunstmatige intelligentie? De Poolse wet is duidelijk.

Polen heeft een klacht ingediend bij de Europese Commissie over de AI-activiteiten van Elon Musk. De chatbot Grok, geprovoceerd door gebruikers van de portal X, beledigde Poolse politici publiekelijk.
Wie is verantwoordelijk voor de haat die AI genereert? Volgens juristen zijn dat de mensen die de provocerende vraag stelden en vervolgens het antwoord verspreidden.
Volgens gesprekspartners van CIS kan door AI gegenereerde content inbreuk maken op persoonlijke rechten en onderworpen zijn aan civiel- of strafrecht.
De kunstmatige intelligentie van Elon Musk publiceerde aanstootgevende berichten over Poolse politici , waaronder Donald Tusk en Jarosław Kaczyński. Op 9 juli stuurde de Poolse minister van Digitale Zaken een brief naar de Europese Commissie, waarin hij erop wees dat dergelijke berichten een "ernstige schending" kunnen vormen van de Europese wet inzake contentmoderatie , de Digital Services Act (DSA). De Europese Commissie voert al anderhalf jaar een onderzoek naar het platform uit. De Poolse thread is bedoeld als aanvulling daarop.
Hoe kon een chatbot Poolse politici beledigen?Er is een account op de sociale netwerksite X waarmee je kunt communiceren met het Grok-taalmodel. Vragen en antwoorden over kunstmatige intelligentie zijn openbaar en voor iedereen toegankelijk. Iedereen kan deelnemen aan het gesprek.
Vorige week werden Groks regels versoepeld. Hij kon reageren met grof taalgebruik en zonder politieke correctheid. Toen Poolse gebruikers de nieuwe regels ontdekten, werd Grok geprovoceerd tot het plaatsen van vulgaire berichten . De kunstmatige intelligentie noemde parlementslid Roman Giertych van de Burgercoalitie een "schurk" en een "leugenaar" en premier Donald Tusk een "verrader die Polen aan Duitsland en de EU verkocht".
Ook andere politici kregen klappen. Uiteindelijk bereikten de door AI gegenereerde reacties een punt waarop Poolse politici en journalisten werden afgeschilderd als "rot op".
Een soortgelijk fenomeen is wereldwijd waargenomen. Een Turkse rechtbank blokkeerde de toegang tot een chatbot nadat deze beledigende reacties op de Turkse president Recep Tayyip Erdogan had gegenereerd.
Kort na het schandaal nam Linda Yaccarino, hoofd van het X-platform, ontslag . Het bedrijf gaf in een verklaring aan dat het management op de hoogte was van de berichten van Grok en eraan werkte om deze te verwijderen. Ook zou het trainingsmodel van de chatbot verbeterd worden.
Kunnen chatbots zoals ChatGPT of Grok persoonlijke rechten schenden?Volgens de advocaten die we om hun mening vroegen, geeft de Poolse wet duidelijk aan dat door AI gegenereerde content inbreuk kan maken op persoonlijke rechten. Zoals advocaat Mateusz Grosicki van Graś i Wspólnicy eraan herinnert:
Volgens artikel 23 van het Burgerlijk Wetboek hebben individuen recht op bescherming van hun persoonlijke rechten, zoals waardigheid, eer, reputatie en imago. In het geval van door AI gegenereerde content biedt de Poolse wet geen uitzondering op deze bescherming.
"Mensen die zich getroffen voelen door aanstootgevende uitlatingen van AI, kunnen hun rechten zowel in Polen als in het buitenland uitoefenen. Op nationaal niveau kunnen slachtoffers een civiele rechtszaak aanspannen om hun persoonlijke rechten te beschermen, of privé-rechtszaken aanspannen om excuses, compensatie of verwijdering van content die hun reputatie schaadt te eisen", voegt Grosicki toe.
Hij benadrukt echter dat publieke figuren of personen die een staatsfunctie bekleden, toleranter moeten zijn tegenover kritiek en controversiële meningen.
Wie kan aansprakelijk worden gesteld: de gebruiker, de maker van de AI of het platform?Zoals advocaten aan WNP vertelden, is de kwestie van aansprakelijkheid voor door AI gegenereerde content complex. Aansprakelijkheid hangt af van wie de content heeft gegenereerd of gepubliceerd die persoonlijke rechten schendt.
- Laten we niet vergeten dat alle op AI gebaseerde hulpmiddelen weliswaar gepersonifieerd zijn en in openbare discussies als kunstmatige personen worden gepresenteerd, maar dat ze zelf geen verbinding maken met de stroomvoorziening en ook geen beslissingen nemen over integratie met de website en het overschrijven van opmerkingen daarop - benadrukken advocaat Zuzanna Miąsko en juridisch adviseur Kacper Krawczyk van advocatenkantoor Dubois i Wspólnicy.
"In het dagelijks leven, met niet-geautomatiseerde tools, vereist het verkrijgen van specifieke en mogelijk inbreukmakende content van een chatbot dat de gebruiker een vraag formuleert. In dergelijke omstandigheden is de situatie duidelijk: door de content te verspreiden, schendt de gebruiker persoonlijke rechten of verspreidt hij laster, en kan deze gebruiker zowel strafrechtelijk als civielrechtelijk aansprakelijk worden gesteld", aldus Zuzanna Miąsko.
Kunt u werkelijk antwoord geven op de "prompt"?Hoe zit het met de zaak Grok? " In de eerste plaats kan de aansprakelijkheid liggen bij gebruikers die opzettelijk vragen stellen aan AI met als doel specifieke, controversiële antwoorden uit te lokken. Dergelijke acties kunnen worden beschouwd als actieve inbreuk op persoonlijke rechten en kunnen leiden tot civiele of zelfs strafrechtelijke aansprakelijkheid in geval van smaad", bevestigt Mateusz Grosicki.
Hij is van mening dat makers van AI-systemen ook aansprakelijk kunnen zijn als ze er niet voor zorgen dat hun tools voldoende bescherming bieden en de gegenereerde content niet goed controleren. Als de algoritmen slecht zijn ontworpen en daardoor aanstootgevende of lasterlijke content opleveren, kunnen de makers worden aangeklaagd.
Ook platforms waar dergelijke content verschijnt, kunnen aansprakelijk worden gesteld. Dat geldt vooral als ze weten dat de content iemands persoonlijke rechten schendt en er niets aan doen, ook al zijn ze wel verplicht om te reageren conform hun eigen regelgeving.
Waarom is het zo moeilijk om platforms verantwoordelijk te houden voor hun content?Volgens CIS-gesprekspartners is het echter een langdurig en lastig proces om de aansprakelijkheid van platforms te achterhalen.
"Het grootste probleem is dat socialemediaplatforms zoals X, Facebook, Instagram en TikTok vrijwel niet reageren op meldingen van lasterlijke of aanstootgevende content", geeft advocaat Zuzanna Miąsko toe. "Naar mijn mening zou de meest effectieve oplossing zijn om de wet aan te passen aan de huidige communicatiestandaarden, die via sociale media plaatsvinden. Het is noodzakelijk om in Polen een orgaan te creëren met een goed ontwikkelde structuur dat efficiënt en daadkrachtig kan reageren op illegale content die online verschijnt. Digitale dienstverleners kunnen zich niet langer ongestraft voelen voor content die wordt gepubliceerd op platforms waarvoor zij verantwoordelijk zijn", zegt ze.
Het Bureau voor Elektronische Communicatie zou zo'n orgaan moeten zijn. Het is door het Ministerie van Digitale Zaken aangewezen als coördinator van digitale diensten in Polen. Het is echter nog niet operationeel.
"Naar mijn mening is de zwakte van het systeem bij het aanpakken van dergelijke schendingen niet te wijten aan een gebrek aan geschikte instrumenten, maar aan een gebrek aan actie bij het gebruik ervan", aldus juridisch adviseur Kacper Krawczyk. "Ik ben van mening dat we ons moeten richten op regelgevende maatregelen en de handhaving van de verplichtingen van provider X onder de DSA (Digital Services Act - noot van de redacteur) – d.w.z. systematisch en primair om een precedent van straffeloosheid te voorkomen. De instrumenten van regelgevende instanties zijn veel schadelijker voor aanbieders van digitale diensten dan mogelijke schadevergoedingen of compensaties, die in de kosten van veel "moderne" internetoplossingen zijn ingebouwd", zegt hij.
Wat kan een persoon doen die schade ondervindt van berichten geschreven door AI?Iemand die zich beledigd of belasterd voelt door door AI gegenereerde content, moet het volgende doen:
- Zorg voor bewijsmateriaal: maak screenshots, noteer links en publicatiedata.
- Meld de overtreding rechtstreeks bij het platform waar de schadelijke inhoud is geplaatst. De meeste platformen bieden formulieren voor dergelijke meldingen.
- Als dit niet helpt, kan de benadeelde partij een civiele rechtszaak aanspannen om zijn/haar persoonlijke rechten te beschermen. Hierbij kan hij/zij excuses eisen, de inhoud laten verwijderen of schadevergoeding eisen.
- In ernstiger gevallen – bijvoorbeeld smaad – is het ook mogelijk om aangifte te doen bij het Openbaar Ministerie of een besloten aanklacht in te dienen.
Deskundigen wijzen ons erop dat het belangrijk is om te onthouden dat als een platform in de Europese Unie actief is, het onderworpen is aan de bepalingen van de Wet digitale diensten (DSD), die het de verplichting oplegt om te reageren op illegale inhoud.
TL;DR: AI-systemen zijn nergens verantwoordelijk voor, mensen wel.Kunstmatige intelligentie, zelfs de meest geavanceerde, is geen rechtspersoon. Een provocerende vraag die aanleiding geeft tot smaad kan leiden tot een rechtszaak en zelfs strafrechtelijke aansprakelijkheid. Zoals Kacper Krawczyk samenvat:
In het geval van AI moeten we stoppen met het personifiëren ervan en op zoek gaan naar de mens achter de effecten van de acties van het algoritme – iemand klikt altijd op de enter-knop die tot een overtreding leidt. Bestaande regelgeving moet in deze geest worden geïnterpreteerd.
wnp.pl