OpenAI beendet zehn bösartige KI-Operationen mit Verbindungen zu China, Russland, Iran und Nordkorea

OpenAI , ein führendes Unternehmen im Bereich künstliche Intelligenz, hat bekannt gegeben, dass es den weit verbreiteten Missbrauch seiner KI-Tools durch böswillige Gruppen aus Ländern wie China, Russland, Nordkorea und dem Iran aktiv bekämpft.
In einem neuen Bericht, der Anfang dieser Woche veröffentlicht wurde, gab OpenAI bekannt, dass es in nur drei Monaten zehn große Netzwerke erfolgreich abgeschaltet hat und damit sein Engagement im Kampf gegen Online-Bedrohungen unter Beweis stellt.
Der Bericht zeigt, wie böswillige Akteure KI nutzen, um überzeugende Online-Täuschungen zu erstellen. So nutzten beispielsweise mit China verbundene Gruppen KI, um massenhaft gefälschte Kommentare und Artikel auf Plattformen wie TikTok und X zu veröffentlichen und gaben sich dabei im Rahmen einer Kampagne namens „Sneer Review“ als echte Nutzer aus.
Dazu gehörte ein gefälschtes Video, in dem der pakistanische Aktivist Mahrang Baloch beschuldigt wurde, in einem Pornofilm mitgespielt zu haben. Außerdem nutzten sie KI, um Inhalte für polarisierende Diskussionen in den USA zu generieren. Unter anderem erstellten sie im Rahmen einer Operation namens „Uncle Spam“ gefälschte Profile von US-Veteranen, um Debatten über Themen wie Zölle zu beeinflussen.
Nordkoreanische Akteure hingegen erstellten mithilfe künstlicher Intelligenz gefälschte Lebensläufe und Bewerbungen . Sie suchten weltweit nach Remote-IT-Jobs, vermutlich um Daten zu stehlen. Russische Gruppen nutzten KI, um gefährliche Software zu entwickeln und Cyberangriffe zu planen. Eine Operation namens ScopeCreep konzentrierte sich auf die Entwicklung von Schadsoftware, die Informationen stehlen und unentdeckt bleiben sollte.
Die iranische Gruppe STORM-2035 (auch bekannt als APT42, Imperial Kitten und TA456 ) nutzte wiederholt künstliche Intelligenz, um Tweets auf Spanisch und Englisch über die US-Einwanderung, die schottische Unabhängigkeit und andere sensible politische Themen zu generieren. Sie erstellten gefälschte Social-Media-Konten, oft mit unkenntlichen Profilbildern, um als Einheimische aufzutreten.
KI wird auch in weit verbreiteten Betrugsmaschen eingesetzt. In einem bemerkenswerten Fall nutzte eine vermutlich in Kambodscha ansässige Organisation namens „Wrong Number“ KI, um Nachrichten für einen Betrugsversuch zu übersetzen. Dieses System versprach hohe Löhne für einfache Online-Aktivitäten wie das Liken von Social-Media-Posts.
Der Betrug folgte einem klaren Muster: Ein „Ping“ (kalte Kontaktaufnahme) mit hohen Gehältern, ein „Zing“ (Vertrauensaufbau und Begeisterung durch vorgetäuschte Einnahmen) und schließlich ein „Sting“ (Geldforderungen an die Opfer für vermeintlich höhere Belohnungen). Diese Betrügereien liefen in mehreren Sprachen, darunter Englisch, Spanisch und Deutsch, und leiteten die Opfer auf Apps wie WhatsApp und Telegram um.
OpenAI erkennt und sperrt aktiv Konten, die an diesen Aktivitäten beteiligt sind, und nutzt KI als „Kraftmultiplikator“ für seine Ermittlungsteams, so das Unternehmen. Dieser proaktive Ansatz führt oft dazu, dass viele dieser bösartigen Kampagnen nur wenig authentisches Engagement oder begrenzte Auswirkungen in der realen Welt erzielten, bevor sie abgeschaltet wurden.
Zusätzlich zu seinem Kampf gegen den Missbrauch von KI steht OpenAI auch vor einer erheblichen rechtlichen Herausforderung hinsichtlich des Datenschutzes der Benutzer. Am 13. Mai ordnete ein US-Gericht unter Vorsitz von Richterin Ona T. Wang an, dass OpenAI ChatGPT-Konversationen aufbewahren muss.
Diese Anordnung geht auf eine Klage wegen Urheberrechtsverletzung zurück, die von der New York Times und anderen Verlagen eingereicht wurde. Sie behaupten, OpenAI habe Millionen ihrer urheberrechtlich geschützten Artikel unrechtmäßig zum Trainieren ihrer KI-Modelle verwendet. Sie argumentieren, dass die Möglichkeit von ChatGPT, ihre Inhalte ohne Erlaubnis oder Entschädigung zu reproduzieren, zusammenzufassen oder zu imitieren, ihr Geschäftsmodell gefährde.
OpenAI hat gegen diese Anordnung protestiert und erklärt, sie zwinge das Unternehmen dazu, gegen seine Verpflichtung zum Schutz der Privatsphäre und Kontrolle der Nutzer zu verstoßen. Das Unternehmen betonte, dass Nutzer in Chats oft sensible persönliche Informationen teilen und erwarten, dass diese gelöscht werden oder privat bleiben. Diese rechtliche Forderung stellt OpenAI vor eine komplexe Herausforderung.
HackRead