Die dunkle Seite der KI: Wie ChatGPT in die Hände von Hackern, Spionen und autoritären Regimen fiel

Wenn eine Eingabeaufforderung auf ChatGPT zum Propagandainstrument und Ausgangspunkt für einen Cyberangriff wird, handelt es sich nicht mehr um reine Hypothesen: Dies geschieht bereits auf globaler Ebene. OpenAI erklärt im Bericht „Disrupting Malicious Uses of AI: Juni 2025“ , wie seine KI-Modelle von böswilligen Akteuren weltweit für Betrug, Desinformationskampagnen, Spionageoperationen und Cyberangriffe missbraucht werden.
Das Dokument rekonstruiert detailliert eine Reihe von Aktivitäten, die in den letzten Monaten identifiziert und unterbrochen wurden. Die Aktionen reichen von digitalen Verbrechen über fortgeschrittenes Social Engineering bis hin zu echten verdeckten Einflussoperationen . Gefälschte Lebensläufe, die in Nordkorea erstellt wurden, um Remote-Jobs zu erhalten, kremlfreundliche Kampagnen, die auf Telegram neu gestartet wurden, philippinische Bots, die die Marcos-Regierung lobten, und Malware, die dank generativer KI Zeile für Zeile geschrieben wurde.
Ein qualitativer Sprung im Missbrauch künstlicher Intelligenz, der es Cyberkriminellen und autoritären Regimen heute ermöglicht, ihre Aktionen mit der gleichen Leichtigkeit zu replizieren und zu verstärken, mit der ein normaler Benutzer eine E-Mail schreibt oder eine Zusammenfassung anfordert.
Doch während KI die Effektivität und das Ausmaß von Angriffen erhöht, liefert sie auch neue Werkzeuge zu deren Abwehr. Jede gesendete Aufforderung, jede anomale Nutzung von Modellen hinterlässt eine Spur digitaler Signale: Nutzungsmuster, Protokollspuren, Verhaltensanomalien. Diese Hinweise werden zu wertvollen Analysequellen für Sicherheitsteams, die so neue Bedrohungen erkennen, verdächtige Konten sperren und die Abwehrmaßnahmen effektiv stärken können.
Desinformation, Hacking und Betrug: Das Tagebuch der KI-AngriffeVon politischem Phishing bis hin zu Pyramidensystemen: Der Bericht von OpenAI unterstreicht die überraschende Vielseitigkeit, mit der KI von böswilligen Akteuren überall auf der Welt ausgenutzt wird.
In Nordkorea nutzten mutmaßlich mit dem Regime verbundene Agenten Berichten zufolge ChatGPT, um gefälschte Identitäten, plausible Lebensläufe und glaubwürdige LinkedIn-Profile zu erstellen und sich so Jobs bei ausländischen , insbesondere US-amerikanischen Unternehmen zu sichern. In einigen Fällen umfassten die Verträge auch die Lieferung von Firmengeräten – beispielsweise Laptops –, die ferngesteuert werden konnten und so möglicherweise Zugriff auf sensible digitale Infrastrukturen ermöglichten.
Berichten zufolge hat Peking im Rahmen der Operation Sneer Review regierungsfreundliche Social-Media-Kampagnen zur Taiwan- Frage angeheizt und vorgefertigte Posts und Kommentare auf TikTok, Reddit und X veröffentlicht, um die globale Konversation zu lenken.
In Manila nutzte die „High Five“-Kampagne künstliche Intelligenz als Resonanzboden für Wahlen: Likes, Emojis und Pro-Marcos-Slogans stammten von gefälschten Accounts einer Marketingagentur. Parallel dazu nutzten die Hackergruppen APT5 und APT15 – beide mit Verbindungen zu China – linguistische Modelle, um Zugangsdaten zu erbeuten und strategische Infrastrukturen in den USA, darunter auch militärische Netzwerke, zu kartieren .
Es gibt zahlreiche Versuche, das System zu teilen und zu herrschen: Mit „Uncle Spam“ verbreiteten angeblich falsche amerikanische Veteranen widersprüchliche Nachrichten auf X und Bluesky, um interne Konflikte zu schüren. In Kambodscha schließlich versprach der „Wrong Number“-Betrug schnelles Geld per Chat: Automatische Nachrichten lockten die Opfer an, forderten einen „Vorschuss“ und drängten sie dann dazu, neue Follower zu rekrutieren – ein lukratives Pyramidensystem.
Fake-Journalisten mit ChatGPT: Wissenschaftler und Politiker ausspioniertZu den raffiniertesten Fällen, die in dem Bericht beschrieben werden, gehört die Operation „VAGue Focus“ , die Akteuren mit mutmaßlichen Verbindungen zu China zugeschrieben wird. Die Täter gaben sich als freie Journalisten oder Analysten nicht existierender Forschungszentren aus und kontaktierten westliche Experten, Akademiker und Beamte. Ziel war es, vertrauliche Informationen zu für Peking sensiblen Themen zu sammeln, etwa zur US-Politik gegenüber Taiwan oder zur internen Dynamik europäischer Institutionen. ChatGPT wurde verwendet, um realistische Nachrichten zu verfassen, journalistische Sprache zu simulieren , Namen und Coverbiografien zu generieren sowie Texte automatisch zu übersetzen. In einigen Fällen wurden geringe Summen im Austausch für Interviews oder schriftliche Dokumente geboten. In anderen Fällen waren die Forderungen invasiver, etwa nach Zugang zu sensiblen Materialien, die für strategische Analysen oder Gegeninformationsoperationen wiederverwendet werden könnten.
KI und Desinformation: Die Bundestagswahl im VisierDer Bericht beschreibt auch eine Kampagne, die mutmaßlich die Bundestagswahl 2025 beeinflussen wollte. Die Operation, die OpenAI vorsichtig auf prorussische Netzwerke zurückführt, verbreitete angeblich Slogans, Memes und pseudojournalistische Artikel über Telegram-Kanäle und die Website Pravda DE , um die AfD zu unterstützen, die NATO zu kritisieren und Berlin zu delegitimieren. Generative KI war entscheidend, um die Botschaften in einem natürlichen und kulturell kohärenten Deutsch zu kalibrieren.
Von der Entwicklung bis zum Debuggen: KI im Dienste der MalwareEin weiterer bemerkenswerter Fall ist die Operation „ScopeCreep“, die dem Bericht zufolge von einem Akteur mit möglichen Verbindungen nach Russland durchgeführt wurde. Hacker nutzten angeblich ChatGPT, um eine mehrstufige Schadsoftware zu entwickeln, die als legitimes Gamer-Tool getarnt war. Der Code wurde in Go geschrieben – einer von Google entwickelten und für ihre Geschwindigkeit und Effizienz gelobten Programmiersprache – und enthielt PowerShell-Skripte, Befehlsfolgen zur Automatisierung von Aufgaben auf Windows-Computern. Künstliche Intelligenz wurde angeblich nicht nur zum Schreiben des Codes eingesetzt, sondern auch, um ihn zu verfeinern, Fehler zu beheben und Sicherheitskontrollen wie Windows Defender zu umgehen. Dies ist ein Beispiel dafür, wie generative Modelle bei der Erstellung von Schadsoftware echte Helfer sein können.
La Repubblica