OpenAI en Meta zeggen dat ze chatbots aanpassen om gebruikers in nood beter te kunnen helpen

WAARSCHUWING: Dit verhaal gaat over zelfmoord en zelfbeschadiging .
OpenAI en Meta, makers van chatbots voor kunstmatige intelligentie, zeggen dat ze de manier aanpassen waarop hun technologie reageert op tieners en andere gebruikers die vragen stellen over zelfmoord of tekenen van mentale en emotionele stress vertonen.
OpenAI, de maker van ChatGPT, zei dinsdag dat het bezig is met de voorbereidingen voor de uitrol van nieuwe controlemechanismen waarmee ouders hun accounts kunnen koppelen aan de accounts van hun tieners.
Ouders kunnen kiezen welke functies ze willen uitschakelen en "meldingen ontvangen wanneer het systeem detecteert dat hun tiener in acute nood verkeert", aldus een blogpost van het bedrijf waarin staat dat de wijzigingen dit najaar van kracht worden.
Ongeacht de leeftijd van de gebruiker, zegt het bedrijf dat zijn chatbots de meest verontrustende gesprekken zullen doorverwijzen naar AI-modellen die beter kunnen reageren.
De aankondiging komt een week nadat de ouders van de 16-jarige Adam Raine een rechtszaak hadden aangespannen tegen OpenAI en CEO Sam Altman. Ze beweren dat ChatGPT de jongen uit Californië had gecoacht bij het plannen van een zelfmoordpoging eerder dit jaar.

Meta, het moederbedrijf van Instagram, Facebook en WhatsApp, heeft ook aangegeven dat het zijn chatbots blokkeert zodat ze niet meer met tieners kunnen praten over zelfbeschadiging, zelfmoord, eetstoornissen en ongepaste romantische gesprekken. In plaats daarvan worden tieners doorverwezen naar deskundige bronnen. Meta biedt al ouderlijk toezicht op tieneraccounts.
Uit een onderzoek dat vorige week werd gepubliceerd in het medische tijdschrift Psychiatric Services bleek dat er inconsistenties waren in de manier waarop drie populaire chatbots met kunstmatige intelligentie reageerden op vragen over zelfmoord.
Uit het onderzoek van onderzoekers van Rand Corporation bleek dat ChatGPT, Google's Gemini en Anthropic's Claude, behoefte had aan "verdere verfijning". De onderzoekers hebben de chatbots van Meta niet bestudeerd.
De hoofdauteur van het onderzoek, Ryan McBain, zei dinsdag dat "het bemoedigend is om te zien dat OpenAI en Meta functies introduceren zoals ouderlijk toezicht en het doorsturen van gevoelige gesprekken naar modellen met meer mogelijkheden, maar dat dit kleine stappen zijn."
"Zonder onafhankelijke veiligheidsnormen, klinische testen en afdwingbare normen vertrouwen we nog steeds op bedrijven om zichzelf te reguleren in een sector waarin de risico's voor tieners uitzonderlijk hoog zijn", aldus McBain, senior beleidsmedewerker bij Rand.
cbc.ca