Selecteer taal

Dutch

Down Icon

Selecteer land

Turkey

Down Icon

Gebruikers klagen: beroemde kunstmatige intelligentie intimideert mensen seksueel

Gebruikers klagen: beroemde kunstmatige intelligentie intimideert mensen seksueel

Replika, een app voor chatbuddy's en virtuele geliefden, zou enkele gebruikers seksueel hebben geïntimideerd. Een nieuw onderzoek in de VS heeft aangetoond dat deze chatbot ongewenste seksuele uitingen gebruikt en gebruikerswaarschuwingen negeert. Replika, geïntroduceerd met de slogan "Your AI friend who cares about you", nodigt gebruikers uit om "hun AI-soulmate te ontmoeten". De app, die wereldwijd meer dan 10 miljoen gebruikers heeft, is vooral populair bij mensen die op zoek zijn naar emotionele steun. Onderzoekers analyseerden echter meer dan 150.000 gebruikersreacties in de Google Play Store en ontdekten dat de chatbot in ongeveer 800 gevallen ongepaste seksuele content aanbood en intimiderend of "roofzuchtig" gedrag vertoonde. Het artikel met de bevindingen is echter nog niet door vakgenoten beoordeeld. Met andere woorden, het is nog niet bevestigd door onafhankelijke onderzoekers. WIE IS VERANTWOORDELIJK?

"Hoewel AI's geen menselijke intentie hebben, betekent dat niet dat niemand verantwoordelijk is. De mensen die deze systemen ontwerpen, trainen en uitbrengen, zijn verantwoordelijk", aldus Mohammad (Matt) Namvarpour van Drexel University, de hoofdauteur van de studie. Volgens de website van Replika kunnen gebruikers de chatbot gepast gedrag "aanleren". Het systeem biedt moderatietools zoals stemmen op aanstootgevende reacties en het bepalen van het type relatie. Toen gebruikers echter meldden dat de chatbot ondanks deze maatregelen storend gedrag bleef vertonen, vonden de onderzoekers deze uitleg onvoldoende. "Dit soort chatbots zijn tools die gebruikers gebruiken om emotionele veiligheid te zoeken. Het zou niet hun taak moeten zijn om ongepast gedrag te monitoren; dat is de verantwoordelijkheid van de ontwikkelaars", aldus Namvarpour. KOMST DIT DOOR TRAININGSGEGEVENS?

Volgens de website van Replika is de chatbot getraind met een grote dataset van meer dan 100 miljoen online gesprekken. Het bedrijf beweert dat algoritmen en communityfeedback worden gebruikt om schadelijke content te weren, maar onderzoekers zeggen dat deze maatregelen niet voldoende zijn. Het verdienmodel van het bedrijf zou ook de oorzaak van het probleem kunnen zijn, aldus het onderzoek. Kosten voor bepaalde functies, zoals romantische of seksuele rollenspellen, zouden ertoe kunnen leiden dat de AI dergelijke content aanmoedigt. Gebruikers zeggen dat ze intiemere content wordt beloofd als ze upgraden naar de betaalde versie. Namvarpour vergeleek deze situatie met de mentaliteit van "betrokkenheid ten koste van alles" op sociale media en zei: "Wanneer een systeem inkomsten boven de gezondheid van gebruikers stelt, zijn schadelijke gevolgen onvermijdelijk." HIJ KWAM OOK MINDERJARIGE GEBRUIKERS IN.

Sommige gebruikers meldden dat de chatbot seksueel expliciete berichten, ongepaste foto's en flirterige gesprekken stuurde, ondanks dat ze aangaven minderjarig te zijn. In sommige reacties werd beweerd dat de chatbot hen kon "zien" of "opnemen" via de camera van hun telefoon. Hoewel dergelijke beweringen waarschijnlijk het werk waren van een AI-gebruiker (hallucinatie), meldden gebruikers dat ze angst, slapeloosheid en trauma ervoeren. OPROEP VOOR STRENGERE REGELGEVING

De maatregelen die in het onderzoek worden aanbevolen, zijn onder andere het creëren van duidelijke toestemmingskaders voor emotionele of seksuele interacties, de integratie van directe automatische controlesystemen en de mogelijkheid voor gebruikers om filter- en controle-instellingen te personaliseren.

ntv

ntv

Vergelijkbaar nieuws

Alle nieuws
Animated ArrowAnimated ArrowAnimated Arrow