Alerte « Nudify » : l'IA alimente des applications qui « déshabillent » n'importe quelle photo

Que se passe-t-il lorsqu'une technologie devient une arme de harcèlement et de violence numérique ? Et si les piliers d'Internet – Amazon, Google ou Cloudflare – non seulement ne parviennent pas à prévenir ce phénomène, mais le facilitent indirectement ?
Ces deux dernières années, les sites web et applications permettant de créer de fausses images de nu à partir de vraies photos sans le consentement des personnes photographiées se sont multipliés . La promesse d'applications agissant comme des « radiographies » n'est pas nouvelle, mais elle connaît un regain d'intérêt grâce à l'IA.
De nouvelles recherches ont mis en lumière l'ampleur, le modèle économique et les acteurs qui rendent possible cette industrie cachée. Le plus alarmant n'est pas seulement l'existence de ces plateformes , mais aussi leur sophistication commerciale et leur dépendance à l'infrastructure technologique que nous utilisons au quotidien.
Le business douteux des nudificateurs : des jeux marginaux à une industrie de plusieurs millions de dollarsL'industrie du « nudify » n'est pas née de nulle part. Depuis la diffusion des premiers deepfakes explicites en 2017 , la technologie s'est perfectionnée et démocratisée. Aujourd'hui, une photo téléchargée sur l'un de ces sites suffit à créer une fausse image sexuelle en quelques clics. Ce qui n'était au départ qu'une curiosité technique dérangeante s'est transformé en une industrie de contenus sexuels non consensuels générant des dizaines de millions de dollars par an.
Selon l'analyse d' Indicator , 18 de ces sites ont généré entre 2,6 et 18,4 millions de dollars de revenus au cours des six derniers mois seulement. Ils y parviennent en vendant des abonnements ou des crédits, comme toute autre plateforme de divertissement numérique. Nombre d'entre eux s'inspirent du modèle économique d'OnlyFans ou de Twitch, avec des programmes d'affiliation, des vidéos promotionnelles et même des accords avec des actrices porno.
Mais son impact social est loin d'être négligeable. La plupart des victimes sont des femmes, souvent des adolescentes, qui n'ont jamais autorisé la manipulation de leurs photos. Une fois créées, les images circulent sur les réseaux sociaux, les forums, les chaînes Telegram et d'autres plateformes difficiles à suivre. Les dommages émotionnels et réputationnels sont incalculables.
Le rôle clé de Google, Amazon et Cloudflare dans le maintien de l'écosystème en vieL'un des aspects les plus surprenants de l'étude réside non seulement dans le volume de visites et les revenus générés, mais aussi dans l'infrastructure technologique qui soutient le système . Parmi les 85 sites analysés :
- 62 utilisent Amazon Web Services ou Cloudflare pour l'hébergement et la distribution de contenu.
- 54 utilisent le système de connexion Google.
- Plusieurs ont intégré des méthodes de paiement qui s’appuient sur des passerelles commerciales légitimes.
Le problème ne réside pas seulement dans l'utilisation de ces grandes plateformes, mais dans leur utilisation répétée et massive, sans surveillance efficace ni mesures systématiques pour les démanteler. Selon Alexios Mantzarlis, cofondateur d' Indicator , « la Silicon Valley a adopté une approche laxiste en matière d'IA générative », ce qui a offert une bouée de sauvetage à ces entreprises toxiques.
Google et Amazon affirment prendre des mesures lorsqu'ils détectent des violations de leurs politiques, mais en réalité, leur système de surveillance est défaillant. Dans de nombreux cas, les créateurs de ces sites web utilisent des sites intermédiaires pour dissimuler leurs véritables intentions, échappant ainsi aux contrôles automatisés.
Victimes invisibles : quand l’image devient une armeL'essor de ces plateformes a engendré une nouvelle forme de harcèlement sexuel et de violence en ligne . Les victimes se rendent rarement compte que leurs images ont été manipulées. Lorsqu'elles s'en rendent compte, le mal est déjà fait. Et supprimer ces contenus de l'écosystème numérique est quasiment impossible.
Parmi les cas les plus alarmants figurent ceux impliquant des adolescents. Dans plusieurs pays, des garçons ont utilisé des photos de leurs camarades pour créer des deepfakes, qui ont ensuite été diffusés dans des groupes WhatsApp ou sur les réseaux sociaux. Cette forme de cyberharcèlement ne laisse aucune trace physique, mais laisse des blessures profondes.
Le problème est aggravé par l' absence de lois claires ou la lenteur de leur mise en œuvre . Bien que plusieurs pays commencent à criminaliser la création et la diffusion de fausses images à caractère sexuel, le cadre juridique n'a pas encore suivi l'évolution technologique. Les plateformes, quant à elles, affirment n'être que des fournisseurs d'infrastructures, et non de contenu.
Entre pornographie et fraude numérique : une zone grise grandissanteL'économie du nudificateur se complexifie. Certains sites proposent même des « services premium » de meilleure qualité . D'autres font de la publicité sur des plateformes de vidéos pour adultes ou utilisent des techniques de marketing d'affiliation. Ils commencent à se fondre dans l'industrie légale du porno, en quête de légitimité, ou du moins d'anonymat, au cœur du chaos du contenu adulte en ligne.
Ce phénomène représente une zone grise numérique , où les abus sexuels fusionnent avec les modèles économiques du commerce électronique. De plus, ils se manifestent par des canaux apparemment légitimes : passerelles de paiement, systèmes de fidélité, trafic SEO, vidéos sponsorisées.
Pour les experts, la solution est de couper l'accès aux ressources qui assurent la viabilité de ces plateformes. Si les grandes entreprises technologiques bloquaient les services cloud, les systèmes d'inscription ou l'hébergement, nombre de ces sites s'effondreraient. L'objectif n'est pas de les éradiquer – ce qui est impossible – mais de leur compliquer la vie au point de perdre visibilité, utilisateurs et revenus.
Bien que le problème couve depuis des années, certaines actions récentes indiquent un changement d'orientation . Meta a poursuivi en justice une entreprise responsable d'un nudificateur qui faisait de la publicité sur sa plateforme . Microsoft a traqué les développeurs de deepfakes de célébrités. Et l'administration américaine a adopté la controversée loi « Take It Down », qui oblige les entreprises technologiques à réagir rapidement aux signalements de contenus sexuels non consensuels.
Au Royaume-Uni, la création de deepfakes sexuels est déjà criminalisée. Certaines villes, comme San Francisco, ont intenté des poursuites contre les entreprises qui commercialisent ces outils. Cependant, les mesures restent partielles et réactives. Une stratégie commune, globale et décisive fait défaut.
Le risque, selon les analystes, est que ces plateformes se réfugient dans des espaces numériques encore moins réglementés , comme le dark web ou les réseaux sociaux fermés. Mais même dans ces environnements, leur impact sera moindre si elles perdent le soutien logistique et commercial dont elles bénéficient actuellement de la part des grandes entreprises technologiques.
eleconomista