Deepnude en 'empathische' chatbots: kunstmatige intelligentie is de nieuwe grens van kinderpornografie


Kunstmatige intelligentie is de nieuwe grens voor pedofielen
De nieuwe trend op het gebied van kinderpornografie is kunstmatige intelligentie . Dit werd aan de kaak gesteld door Don Fortunato Di Noto, priester en oprichter van de Meter ETS Association , die al meer dan dertig jaar strijdt tegen kindermisbruik. Twee dagen geleden presenteerde de vereniging in Rome het eerste Italiaanse dossier dat volledig gewijd is aan de impact van AI op online misbruik : chatbots, deepfakes en virtuele kinderpornografie.
Het Meter DossierMet het rapport leveren Don Di Noto en de vereniging ook hun bijdrage aan het werk van paus Leo XIV, die een encycliek over kunstmatige intelligentie (AI) aankondigde. Het risico – benadrukt het dossier – is de normalisering van misbruik: als de afbeelding computergegenereerd is, en de slachtoffers dus niet fysiek zijn, dan is het geen misdaad meer. In plaats daarvan is het dat wel. De vraag is hoe het te identificeren en te vervolgen. De Italiaanse wet stelt tot op heden virtuele kinderpornografie gelijk aan echte kinderpornografie. Maar – benadrukt Di Noto – het ontbreekt aan effectiviteit: wetshandhaving worstelt om tijdig in te grijpen en het materiaal blijft in omloop. Meer daadkrachtige instrumenten, bijgewerkte regelgeving en voortdurende training zijn nodig : "Een cruciale stap is de samenwerking tussen overheden en technologiebedrijven om een ethische AI te ontwikkelen die de productie van kinderpornografie en naakt materiaal kan voorkomen en blokkeren."
De dreiging, zo stelt de vereniging, is tweeledig: de snelheid waarmee deze content wordt geproduceerd, versleuteld en gedeeld, en het gebrek aan adequate regelgeving. De meest gebruikte platforms voor de verspreiding van materiaal zijn Signal (in 8 van de 10 gevallen), Telegram, Viber, WhatsApp en Instagram. Vaak zijn het privékanalen, versleuteld en moeilijk te controleren en te blokkeren.
Hoe kan kunstmatige intelligentie worden ingezet tegen misbruik?Maar hoe werkt kunstmatige intelligentie precies ten dienste van misbruik? Via chatbots: programma's die complexe gesprekken kunnen simuleren, waarbij de verleider zich niet langer hoeft bloot te geven of moeite hoeft te doen. Sterker nog, de verleiding wordt vanaf het begin al door deze programma's opgevangen, die sleutelwoorden kunnen herkennen, empathisch kunnen reageren en de weg vrijmaken voor de uitwisseling van intiem materiaal. De volgende stap is de manipulatie van afbeeldingen: uitgaande van foto's die in alledaagse contexten zijn genomen – sport, school, games – genereert de AI deepnudes: neppe maar realistische afbeeldingen of video's waarop de minderjarige naakt of geseksualiseerd verschijnt. Ongeveer 10% van de online gemonitorde groepen heeft gevraagd om de productie van deepfakes, terwijl 20% deze genereert op basis van onschuldige afbeeldingen.
Nepbeelden, jazeker, maar met reële gevolgen. De gegevens van het Global Observatory for the Fight against Pedophilia (OSMOCOP), opgericht door Meter zelf, zijn alarmerend: alleen al in de eerste zes maanden van 2025 kwamen bijna 3.000 minderjarigen in deepfake kinderporno terecht. Een urgent probleem. Met het Dossier wil Mater "de maatschappij, politiek en kerk aanklagen en een krachtig standpunt innemen". Meer dan 60% van de tieners is bekend met deepnudes , maar meer dan de helft kan ze niet onderscheiden van echte content. De meest significante en hoopgevende gegevens hebben echter betrekking op de risicoperceptie: 9 op de 10 tieners gelooft dat de verspreiding van deepfake-content een concreet gevaar vormt, en bijna 7 op de 10 zou bereid zijn om dit te melden.
© Reproductie voorbehouden
Artikeltags
Kunstmatige intelligentieLuce