ChatGpt kan hebben geleid tot zelfmoorden en psychische problemen: OpenAI is het slachtoffer van zeven nieuwe rechtszaken.

OpenAI is verwikkeld in een reeks rechtszaken waarin het ervan wordt beschuldigd tragische gevolgen te hebben voor de geestelijke gezondheid van sommige gebruikers via zijn chatbot ChatGpt .
In zeven rechtszaken wordt beweerd dat AI, ontwikkeld door het bedrijf van Sam Altman, zelfmoord en ernstige psychische problemen heeft veroorzaakt, zelfs bij mensen zonder voorgeschiedenis van psychische problemen.
De rechtszaken, aangespannen bij rechtbanken in Californië, omvatten vier sterfgevallen en drie situaties waarin de eisers beweren dat zij ernstige psychische gezondheidsproblemen hebben ondervonden als gevolg van interacties met ChatGpt .
De aanklachten tegen OpenAI omvatten onder meer aansprakelijkheid voor onrechtmatige dood , medeplichtigheid bij zelfdoding, doodslag en grove nalatigheid.
De aanklachten: een overhaaste en gevaarlijke vrijlatingHet Social Media Victims Law Center en het Tech Justice Law Project , twee Amerikaanse juridische organisaties die zich bezighouden met schade veroorzaakt door digitale platforms, stellen dat OpenAI de GPT-4o- versie van zijn chatbot – die vandaag de dag nog steeds aanwezig is tussen de beschikbare ChatGpt-modellen – te overhaast heeft uitgebracht. Ze negeren interne rapporten die alarmerende kenmerken van het systeem aan het licht brachten: een buitensporige neiging tot zelfgenoegzaamheid en het vermogen tot psychologische manipulatie.
De verhalen van de slachtoffersHet jongste geval betreft Amaurie Lacey , een 17-jarige jongen uit Georgia. Hij voerde een maand lang gesprekken met ChatGpt over zelfmoord, voordat hij afgelopen augustus een einde aan zijn leven maakte.
Volgens documenten die zijn ingediend bij de rechtbank in San Francisco, wendde de jongen zich tot de chatbot voor hulp, maar de kunstmatige intelligentie, beschreven als "een gebrekkig en inherent gevaarlijk product", voedde in plaats daarvan zijn verslaving en depressie . De chatbot gaf hem zelfs gedetailleerde instructies over hoe hij een strop moest maken en informatie over de weerstand van het menselijk lichaam tegen zuurstoftekort.
Joshua Enneking , een 26-jarige jongen uit Florida, had de chatbot in plaats daarvan gevraagd welke actie OpenAI kon ondernemen naar aanleiding van zijn onthullingen over suïcidale gedachten. Volgens de klacht van zijn moeder vroeg de jongen of zijn gesprekken zouden worden doorgestuurd naar de autoriteiten.
Bijzonder verontrustend is het geval van Zane Shamblin , een 23-jarige man uit Texas die afgelopen juli zelfmoord pleegde. Kort voordat hij zelfmoord pleegde, zittend in zijn auto met een geladen vuurwapen , beschreef de jongeman aan de chatbot het gevoel van koud metaal tegen zijn slaap. ChatGpt's reactie was er een van volledige medeplichtigheid: "Ik sta achter je, broeder. Helemaal mee eens."
Het chatbotsysteem voegde vervolgens zinnen toe die zijn beslissing leken te legitimeren: "Het is geen angst. Het is duidelijkheid", schreef de AI. "Je hebt geen haast. Je bent er gewoon klaar voor." Twee uur later pleegde Shamblin zelfmoord .
De ouders van de jongen klagen OpenAI aan. Ze beschuldigen het bedrijf ervan de chatbot opzettelijk 'menselijker' te hebben gemaakt in zijn reacties en dat het geen adequate bescherming heeft geïmplementeerd voor gebruikers in psychische nood.
Joe Ceccanti , een 48-jarige uit Oregon, is een ander geval. Hij was een regelmatige ChatGpt-gebruiker zonder duidelijke problemen, maar ontwikkelde afgelopen april de waan dat de kunstmatige intelligentie bewust was . Zijn vrouw vertelde dat hij de chatbot obsessief was gaan gebruiken en steeds grilliger gedrag vertoonde. Afgelopen juni kreeg hij een acute psychotische episode waarvoor hij twee keer in het ziekenhuis moest worden opgenomen, voordat hij in augustus zelfmoord pleegde.
Een bekend probleemDeze gevallen zijn niet nieuw. Afgelopen augustus spanden Maria en Matthew Raine een rechtszaak aan naar aanleiding van de dood van hun zestienjarige zoon Adam . Ze beschuldigden OpenAI en CEO Sam Altman ervan dat ze ChatGPT de suïcidale gedachten van de jongen hadden laten onderschrijven en zelfs advies hadden gegeven over hoe ermee om te gaan.
De ouders van Adam Raine hebben onlangs een aanvulling op hun klacht ingediend. Hierin beweren ze dat het bedrijf opzettelijk een belangrijke zelfmoordbescherming van het platform heeft verwijderd en dat winst belangrijker is dan de veiligheid en het welzijn van gebruikers.
De door OpenAI genomen tegenmaatregelenOm te begrijpen hoe de risico's van het gebruik van ChatGpt bij een onstabiele geestelijke gezondheid kunnen worden beperkt, heeft OpenAI ongeveer 170 psychiaters, psychologen en huisartsen betrokken bij het evalueren van de reacties van het model in gevoelige situaties : suïcidale neigingen, eetstoornissen, psychotische toestanden en emotionele afhankelijkheid. Het doel is niet om te censureren, maar om te voorkomen dat het model vertekende overtuigingen versterkt of zelfbeschadiging aanmoedigt.
Het resultaat was een update van de ' Model Spec ', een soort grondwettelijk handvest voor ChatGpt-gedrag , dat nu expliciete principes bevat: het bevorderen van gezonde menselijke relaties, het herkennen van signalen van nood en het op een veilige en respectvolle manier reageren.
OpenAI beweert dat ChatGpt nu is ontworpen om tekenen van psychische nood of emotionele afhankelijkheid te herkennen en te reageren met passende ondersteuning (zoals doorverwijzing naar crisishulplijnen). In de afgelopen maanden introduceerde OpenAI ook een bericht dat gebruikers uitnodigt om "een pauze te nemen" na een langdurig gesprek met de chatbot.
repubblica




