Sprache auswählen

German

Down Icon

Land auswählen

Spain

Down Icon

„Nudify“-Alarm: KI-gestützte Apps, die jedes Foto „entkleiden“

„Nudify“-Alarm: KI-gestützte Apps, die jedes Foto „entkleiden“

Was passiert, wenn eine Technologie zur Waffe der Belästigung und digitalen Gewalt wird? Was, wenn die Säulen des Internets – Amazon, Google oder Cloudflare – dies nicht nur nicht verhindern, sondern indirekt sogar begünstigen?

In den letzten zwei Jahren haben Websites und Apps stark zugenommen, mit denen Nutzer gefälschte Nacktbilder aus echten Fotos erstellen können, ohne die Zustimmung der abgebildeten Personen einzuholen . Das Versprechen von Apps, die als „Röntgenbilder“ fungieren, ist nicht neu, erlebt aber dank KI ein Comeback.

Neue Forschungsergebnisse beleuchten den Umfang, das Geschäftsmodell und die Akteure, die diese verborgene Branche ermöglichen. Besonders besorgniserregend ist nicht nur die Existenz dieser Plattformen , sondern auch ihre geschäftliche Komplexität und ihre Abhängigkeit von der technologischen Infrastruktur, die wir täglich nutzen.

Das zwielichtige Geschäft der Nacktheitsfanatiker: Vom Randspiel zur Multi-Millionen-Dollar-Industrie

Die Nacktheitsindustrie entstand nicht aus dem Nichts. Seit 2017 die ersten expliziten Deepfakes kursierten , wurde die Technologie verfeinert und demokratisiert. Heute genügt ein auf einer dieser Seiten hochgeladenes Foto, um mit wenigen Klicks ein gefälschtes sexuelles Bild zu erstellen. Was als verstörende technische Kuriosität begann, hat sich zu einer Industrie für nicht einvernehmliche sexuelle Inhalte entwickelt, die jährlich zig Millionen Dollar generiert.

Laut Indicators Analyse verdienten 18 dieser Websites allein in den letzten sechs Monaten zwischen 2,6 und 18,4 Millionen US-Dollar . Sie verdienen dies durch den Verkauf von Abonnements oder Guthaben, wie jede andere digitale Unterhaltungsplattform auch. Viele ahmen das Geschäftsmodell von OnlyFans oder Twitch nach, mit Partnerprogrammen, Werbevideos und sogar Verträgen mit Pornodarstellerinnen.

Doch die sozialen Auswirkungen sind alles andere als gering. Die meisten Opfer sind Frauen, oft Teenager, die nie die Erlaubnis zur Manipulation ihrer Fotos gegeben haben . Sobald die Bilder erstellt sind, kursieren sie in sozialen Medien, Foren, Telegram-Kanälen und anderen Plattformen, die schwer zu verfolgen sind. Der emotionale Schaden und der Rufschaden sind unermesslich.

Die Schlüsselrolle von Google, Amazon und Cloudflare für den Erhalt des Ökosystems

Einer der überraschendsten Aspekte der Studie ist nicht nur das Besucheraufkommen oder die generierten Einnahmen, sondern auch die technologische Infrastruktur, die das System unterstützt . Von den 85 analysierten Websites:

  • 62 verwenden Amazon Web Services oder Cloudflare für das Hosten und Verteilen von Inhalten.
  • 54 verwenden das Google-Anmeldesystem.
  • Einige haben Zahlungsmethoden integriert, die auf legitimen kommerziellen Gateways basieren.

Das Problem besteht nicht nur darin, dass diese großen Plattformen genutzt werden, sondern auch darin, dass sie wiederholt und massiv eingesetzt werden, ohne wirksame Aufsicht oder systematische Maßnahmen zur Zerschlagung dieser Räume. Laut Alexios Mantzarlis, Mitbegründer von Indicator , „verfolgt Silicon Valley einen Laissez-faire-Ansatz gegenüber generativer KI“, was diesen toxischen Unternehmen eine Rettungsleine bietet.

Google und Amazon behaupten zwar, bei Verstößen gegen ihre Richtlinien Maßnahmen zu ergreifen, doch in Wirklichkeit ist ihr Überwachungssystem mangelhaft. Oftmals nutzen die Betreiber dieser Websites Zwischenseiten, um ihre wahren Absichten zu verschleiern und so automatisierten Kontrollen zu entgehen.

Unsichtbare Opfer: Wenn das Bild zur Waffe wird

Der Aufstieg dieser Plattformen hat eine neue Form digitaler sexueller Belästigung und Gewalt mit sich gebracht. Opfer wissen selten, dass ihre Bilder manipuliert wurden. Bis sie es bemerken, ist der Schaden bereits angerichtet. Und es ist nahezu unmöglich, solche Inhalte aus dem digitalen Ökosystem zu entfernen.

Zu den alarmierendsten Fällen gehören Fälle, in die Jugendliche verwickelt sind. In mehreren Ländern haben Jungen Fotos ihrer Klassenkameraden verwendet, um Deepfakes zu erstellen, die dann in WhatsApp-Gruppen oder in sozialen Medien verbreitet wurden. Diese Form des Cybermobbings hinterlässt zwar keine physischen Spuren, aber tiefe Wunden.

Das Problem wird durch das Fehlen klarer Gesetze oder deren langsame Umsetzung verschärft. Obwohl mehrere Länder beginnen, die Erstellung und Verbreitung gefälschter sexueller Bilder unter Strafe zu stellen, ist der Rechtsrahmen noch nicht mit der Technologie Schritt gehalten. Die Plattformen ihrerseits behaupten, sie seien lediglich Infrastrukturanbieter, nicht aber Inhaltsanbieter.

Zwischen Pornografie und digitalem Betrug: eine wachsende Grauzone

Die Nackt-Ökonomie wird immer anspruchsvoller. Manche Seiten bieten sogar „Premium-Dienste“ mit besserer Qualität an . Andere werben auf Erotik-Videoplattformen oder nutzen Affiliate-Marketing-Techniken. Sie beginnen, sich in die legale Pornoindustrie einzumischen und suchen im Chaos der Online-Inhalte für Erwachsene nach Legitimität oder zumindest Anonymität.

Dieses Phänomen stellt eine digitale Grauzone dar, in der sexueller Missbrauch mit E-Commerce-Geschäftsmodellen verschmilzt. Und zwar über scheinbar legitime Kanäle: Zahlungsgateways, Treuesysteme, SEO-Verkehr, gesponserte Videos.

Experten zufolge liegt der Schlüssel darin, den Zugang zu den Ressourcen zu sperren, die diese Plattformen erst am Leben erhalten. Wenn große Technologieunternehmen Cloud-Dienste, Registrierungssysteme oder Hosting blockieren, würden viele dieser Websites zusammenbrechen. Das Ziel ist nicht, sie auszulöschen – ein Ding der Unmöglichkeit –, sondern ihnen das Leben so schwer zu machen, dass sie an Sichtbarkeit, Nutzern und Umsatz verlieren.

Obwohl das Problem schon seit Jahren schwelt, deuten einige aktuelle Maßnahmen auf eine Schwerpunktverlagerung hin . Meta hat ein Unternehmen verklagt, das für einen Nackt-Fingerabdruck verantwortlich ist, der auf seiner Plattform Werbung machte . Microsoft hat die Entwickler von Promi-Deepfakes aufgespürt. Und die US-Regierung hat den umstrittenen „Take It Down Act“ verabschiedet, der Technologieunternehmen verpflichtet, bei Berichten über nicht einvernehmliche sexuelle Inhalte schnell zu reagieren.

In Großbritannien ist die Erstellung sexueller Deepfakes bereits kriminalisiert. Und einige Städte, wie San Francisco, haben Klagen gegen Unternehmen eingereicht, die diese Tools vermarkten. Die Maßnahmen bleiben jedoch unvollständig und reaktiv. Es fehlt eine gemeinsame, umfassende und entschlossene Strategie.

Analysten zufolge besteht das Risiko, dass diese Plattformen in noch weniger regulierte digitale Räume wie das Darknet oder geschlossene soziale Netzwerke abwandern. Doch selbst dort wird ihre Wirkung geringer sein, wenn sie die logistische und kommerzielle Unterstützung verlieren, die sie derzeit von großen Technologieunternehmen erhalten.

WhatsApp Facebook Twitter Linkedin Laut Blauer Himmel
eleconomista

eleconomista

Ähnliche Nachrichten

Alle News
Animated ArrowAnimated ArrowAnimated Arrow