Samenwerking tussen Mattel en OpenAI is geboren! Heeft dit een negatieve impact op kinderen?

De plannen van speelgoedgigant Mattel om ChatGPT aan zijn producten toe te voegen, kunnen volgens experts op het gebied van kinderwelzijn een risico vormen voor "echte schade aan kinderen". De Barbie-maker kondigde vorige week een samenwerking met OpenAI aan, wat erop duidt dat toekomstig speelgoed de populaire chatbot met kunstmatige intelligentie zal bevatten.
Hoewel de aankondiging, gerapporteerd door Independent Turkish, geen specifieke details bevatte over hoe de technologie zou worden gebruikt, verklaarde Mattel dat de samenwerking "AI-gestuurde producten en ervaringen zou ondersteunen" en "de magie van AI zou combineren met leeftijdsgeschikte speelervaringen."
Voorvechters van kinderwelzijn reageerden door Mattel op te roepen de experimentele technologie niet in kinderspeelgoed te gebruiken.
"Kinderen hebben niet het cognitieve vermogen om het verschil te zien tussen de werkelijkheid en spel", aldus Robert Weissman, medevoorzitter van de belangenorganisatie Public Citizen, in een verklaring.
Door menselijke stemmen toe te voegen aan speelgoed dat kan praten als mensen, bestaat het risico dat dit echte schade aanricht bij kinderen.
De mogelijke gevaren die Weissman noemt, zijn onder meer het ondermijnen van de sociale ontwikkeling en het belemmeren van het vermogen van kinderen om relaties met leeftijdsgenoten op te bouwen.
"Mattel moet onmiddellijk aankondigen dat het geen AI-technologie in kinderspeelgoed zal gebruiken", aldus Weissman.
Mattel mag het vertrouwen dat ouders in het bedrijf hebben niet misbruiken om een roekeloos sociaal experiment op onze kinderen uit te voeren door speelgoed te verkopen dat over kunstmatige intelligentie beschikt.
The Independent heeft contact opgenomen met OpenAI en Mattel voor een recht van antwoord.
De samenwerking tussen Mattel en OpenAI komt op een moment dat er steeds meer zorgen zijn over de impact van generatieve AI-systemen zoals ChatGPT op de geestelijke gezondheid van gebruikers.
Het is bekend dat chatbots desinformatie verspreiden, complottheorieën bevestigen en zelfs gebruikers aanmoedigen zelfmoord te plegen.
Psychiaters waarschuwen ook voor een fenomeen dat conversationele psychose wordt genoemd en dat wordt veroorzaakt door interacties met AI.
"Gesprekken met generatieve AI-chatbots zoals ChatGPT zijn zo realistisch dat je gemakkelijk de indruk krijgt dat er een echt persoon aan de andere kant zit", schrijft Soren Dinesen Ostergaard, docent psychiatrie aan de Universiteit van Aarhus in Denemarken, in een redactioneel artikel voor Schizophrenia Bulletin.
Het lijkt mij waarschijnlijk dat deze cognitieve dissonantie waanideeën voedt bij mensen die zeer vatbaar zijn voor psychoses.
Sam Altman, CEO van OpenAI, zei deze week dat zijn bedrijf maatregelen neemt om kwetsbare gebruikers te beschermen. Zo wordt bijvoorbeeld het aantal berichten waarin complottheorieën voorkomen teruggedrongen en worden mensen doorverwezen naar professionele diensten wanneer onderwerpen als zelfmoord ter sprake komen.
"We willen niet de fouten maken van eerdere generaties technologiebedrijven, die niet snel genoeg reageerden", vertelde Altman in de Hard Fork-podcast.
We zijn er echter nog niet achter hoe we een waarschuwing kunnen sturen naar gebruikers die mentaal zo kwetsbaar zijn dat ze op de rand van een psychose staan.
Cumhuriyet