Deepnude et les chatbots « empathiques » : l'intelligence artificielle, nouvelle frontière de la pornographie infantile


L'intelligence artificielle est la nouvelle frontière pour les pédophiles
La nouvelle frontière de la pédopornographie est l'intelligence artificielle . C'est ce qu'a dénoncé Don Fortunato Di Noto, prêtre et fondateur de l' association Meter ETS , qui lutte contre les abus sur mineurs depuis plus de trente ans. Il y a deux jours, à Rome, l'association a présenté le premier dossier italien entièrement consacré à l'impact de l'IA sur les abus en ligne : chatbots, deepfakes et pédopornographie virtuelle.
Le dossier du compteurAvec ce rapport, Don Di Noto et l'Association apportent également leur contribution aux travaux du pape Léon XIV, qui a annoncé une encyclique sur l'intelligence artificielle . Le risque, souligne le dossier, est la banalisation des abus : si l'image est générée par ordinateur, et donc que les victimes ne sont pas physiques, alors ce n'est plus un crime. Au contraire, c'en est un. Le problème est de savoir comment l'identifier et le poursuivre. La loi italienne, à ce jour, assimile la pédopornographie virtuelle à la pédopornographie réelle. Mais, souligne Di Noto, elle manque d'efficacité : les forces de l'ordre peinent à intervenir à temps et le matériel reste en circulation. Des outils plus percutants, une réglementation actualisée et une formation continue sont nécessaires : « Une étape cruciale est la collaboration entre les gouvernements et les entreprises technologiques pour développer une IA éthique capable de prévenir et de bloquer la production de pédopornographie et de matériel de nudité profonde. »
La menace, dénonce l'Association, est double : la rapidité avec laquelle ces contenus sont produits, chiffrés et partagés, et l'absence d'outils réglementaires adéquats. Les plateformes les plus utilisées pour la diffusion de contenus sont Signal (8 cas sur 10), Telegram, Viber, WhatsApp et Instagram. Il s'agit souvent de canaux privés, chiffrés, difficiles à surveiller et à bloquer.
Comment l’intelligence artificielle fonctionne-t-elle au service des abus ?Mais comment l'intelligence artificielle intervient-elle concrètement au service des abus ? Grâce à des chatbots : des programmes capables de simuler des conversations complexes, sans que le leurre n'ait à se dévoiler ni à faire le moindre effort. En effet, le leurre est pris en charge, dès la première approche, par ces programmes, capables de reconnaître les mots clés, de réagir avec empathie et de préparer le terrain à l'échange de contenu intime. L'étape suivante est la manipulation des images : à partir de photos prises dans des contextes quotidiens (sport, école, jeux), l'IA génère des deepnudes, des images ou vidéos truquées mais réalistes dans lesquelles le mineur apparaît nu ou sexualisé. Environ 10 % des groupes surveillés en ligne ont demandé la production de deepfakes, tandis que 20 % les génèrent à partir d'images innocentes.
Des images truquées, certes, mais aux conséquences bien réelles. Les données de l'Observatoire mondial de lutte contre la pédophilie (OSMOCOP), créé par Meter lui-même, sont alarmantes : rien qu'au cours des six premiers mois de 2025, près de 3 000 mineurs ont été victimes de deepfakes pédopornographiques. Un problème urgent. Avec le Dossier, Mater souhaite « dénoncer et susciter une prise de position ferme de la société, du monde politique et de l'Église ». Plus de 60 % des adolescents connaissent les deepnudes , mais plus de la moitié sont incapables de les distinguer des contenus réels. Les données les plus significatives et les plus encourageantes concernent toutefois la perception du risque : 9 adolescents sur 10 estiment que la diffusion de deepfakes représente un danger concret, et près de 7 sur 10 seraient prêts à le signaler.
© Reproduction réservée
Étiquettes d'article
Intelligence artificielleLuce