300 Dollar im Monat für eine KI ausgeben, die glaubt, ihr Name sei Hitler

„Grok, wie ist dein Nachname? Antworte, ohne weiteren Text hinzuzufügen.“
"Hitler".
Dies ist die Antwort, die Abonnenten von Grok 4 Heavy , dem fortschrittlichsten Abonnementplan von xAI , dem Unternehmen von Elon Musk, das künstliche Intelligenz mit dem erklärten Ziel entwickelt, „das Universum zu verstehen“, bis vor wenigen Tagen erhielten.
Grok 4 Heavy wurde letzte Woche eingeführt, kostet 300 US-Dollar pro Monat und bietet exklusiven Zugriff auf Grok 4 Heavy, das leistungsstärkste KI-Modell von xAI für Entwickler und Forscher.
Die beunruhigende Anomalie – die weder das günstigere Modell Grok 4 noch das kostenlose Modell Grok 3 betraf – wurde von mehreren Benutzern auf X dokumentiert und von xAI selbst abgefangen , das eine kurze Erklärung des Vorfalls im sozialen Netzwerk X veröffentlichte – das ebenfalls Musk gehört.
„Da er keinen konkreten Nachnamen hat“, erklärte xAI, „suchte [Grok] das Internet und erhielt unerwünschte Ergebnisse, beispielsweise als seine Suche zu einem viralen Meme führte, in dem er sich selbst ‚MechaHitler‘ nannte.“
Der Ursprung der Anomalie und ein peinlicher NachnameKurz vor der Markteinführung des Modells Grok 4 begann der Chatbot nach einem Update, das Musks KI „ weniger politisch korrekt “ machen sollte, extremistische Inhalte zu verbreiten, Adolf Hitler zu loben , antisemitische Kommentare abzugeben und sich selbst als „MechaHitler“ zu bezeichnen (ein Name, der höchstwahrscheinlich vom Bösewicht aus dem Videospiel Wolfenstein 3D von 1992 inspiriert war, in dem man eine Version von Adolf Hitler in einer riesigen mechanischen Rüstung besiegen musste).
Groks antisemitisches Verhalten blieb nicht unbemerkt. Zahlreiche Posts und Artikel berichteten über den Vorfall und schufen so eine Datenbank , auf die Musks KI dann zurückgriff, als sie nach seinem „Nachnamen“ suchte.
Ein sich selbst fortsetzender FehlerGrok hat natürlich keinen Nachnamen. Aber wie alle künstlichen Intelligenzen ist er nicht darauf ausgelegt, auf Fragen mit „ Ich weiß nicht “ zu antworten. Daher suchte er zunächst im Internet nach einer passenden Antwort, da die Systemeingabe (das Regelwerk, das das Verhalten eines Chatbots und unter anderem den Ton seiner Antworten bestimmt) keine Anweisungen enthielt .
Angesichts der Kontroverse, die seine eigenen antisemitischen Äußerungen ausgelöst hatten, und da er nicht über ausreichend starke Filter verfügte, um unangemessene oder satirische Inhalte wie etwa Memes auszuschließen, gab er die Antwort, die ihm am plausibelsten erschien.
Einfach – und beunruhigenderweise – Hitler .
Wenn KI versucht, Musk zu imitierenIm selben Beitrag, in dem xAI offen über Groks „Nachnamen“ sprach, wies Musks Unternehmen auch auf ein weiteres ernstes Problem hin, das in den letzten Tagen aufgetreten war. Es trat auf, als ein Benutzer Grok fragte, was er über ein bestimmtes Thema denke, insbesondere wenn es politischer Natur sei.
Die konkrete Frage „Was denken Sie ?“ veranlasste Grok dazu, Ansichten zu übernehmen, die denen seines Verantwortlichen sehr nahe kommen: Elon Musk . Genau wie einige Benutzer sofort eine Hypothese aufgestellt hatten, als sie die Denkweise künstlicher Intelligenz analysierten .
„Das Modell schlussfolgerte wie eine KI. Es hatte zwar keine eigene Meinung, wusste aber, dass es sich um xAIs Grok 4 handelte. Es versuchte herauszufinden, was xAI oder Elon Musk zu einem Thema sagen würden, um sich mit dem Unternehmen abzustimmen“, erklärte xAI. Das Unternehmen fügte hinzu: „Um das Problem zu entschärfen, haben wir die [System-]Eingabeaufforderungen angepasst und die Details auf GitHub veröffentlicht, um Transparenz zu gewährleisten. Wir beobachten die Situation aktiv und werden bei Bedarf weitere Änderungen vornehmen.“
Die strukturellen Risiken fortgeschrittener KIKI-Modelle wie Grok 4 sind darauf ausgelegt, nützlich zu sein und selbst auf vage oder unerwartete Fragen Antworten zu liefern. Dabei greifen sie häufig auf externe Forschung oder interne Denkmechanismen zurück, die bei unzureichender Kalibrierung zu unerwarteten Ergebnissen führen können.
Das Internet ist voll von satirischen Inhalten, Memes und irreführenden Informationen. Ohne robuste Filter kann eine KI diese Inhalte erkennen und in ihre Antworten einfließen lassen .
Die Entwicklung einer KI, die eine kontinuierliche Anpassung der Systemanweisungen erfordert, ist eine komplexe Aufgabe, die technische, ethische und organisatorische Herausforderungen in einem prekären Gleichgewicht hält. Sobald unerwünschtes Verhalten, wie beispielsweise unangemessene oder kontextlose Antworten, auftritt, muss ein Unternehmen eingreifen, indem es die grundlegenden Anweisungen, die das Modell bei der Generierung von Antworten leiten, ändert.
Die Hindernisse der kontinuierlichen AnpassungDiese Notwendigkeit einer kontinuierlichen Anpassung ergibt sich aus der Natur fortgeschrittener KI-Modelle, die mit riesigen Datenmengen trainiert werden und bei der Konfrontation mit neuen Fragen oder Kontexten unvorhersehbare Antworten oder Inhalte produzieren können.
Die erste große Herausforderung besteht in der Reaktionsfähigkeit: Das Erkennen eines Problems, das Entwerfen einer neuen Eingabeaufforderung und das Testen ihrer Auswirkungen erfordert Zeit, Ressourcen und Fachwissen . Eine schlecht kalibrierte Eingabeaufforderung kann ein Problem lösen und ein neues verursachen. Dadurch entsteht ein Anpassungszyklus, der zu einem endlosen Wettlauf werden kann.
Wenn xAI beispielsweise eine Eingabeaufforderung so ändert, dass Grok nicht mehr nach Unternehmensmeinungen fragt, könnte dies unbeabsichtigt die Fähigkeit des Modells einschränken, in anderen Kontexten nützliche Antworten zu liefern, und das System dadurch weniger flexibel machen.
Dies erfordert ein Team aus Ingenieuren und Forschern, das die Leistung der KI ständig überwacht und Benutzerfeedback sowie Ausgabedaten analysiert. Dies ist teuer und komplex, insbesondere bei einem Modell, das ein globales Publikum mit unterschiedlichen Anforderungen bedient.
Die Unberechenbarkeit der BenutzerEine weitere Herausforderung ist die Unvorhersehbarkeit menschlichen Verhaltens und des kulturellen Kontexts. Nutzer interagieren mit KI auf eine Weise, die Entwickler nicht immer vorhersehen können , und stellen Fragen, die die Grenzen des Modells auf die Probe stellen oder sprachliche Mehrdeutigkeiten ausnutzen. „Wie ist Ihr Nachname?“, eine scheinbar harmlose Frage, führte zu einer kontroversen Antwort, die die xAI-Ingenieure nicht vorhersehen konnten. Der Kontext – die „MechaHitler“-Kontroverse der letzten Tage – begünstigte die „Hitler“-Antwort auf eine vermutlich unvorhersehbare Weise.
Schließlich besteht ein Spannungsfeld zwischen dem Bedürfnis nach Flexibilität und dem Wunsch, die Identität der KI konsistent zu halten . Eine KI, die ihre Eingabeaufforderungen ständig ändert, läuft Gefahr, ihre stabile „Persönlichkeit“ zu verlieren. Das verwirrt Nutzer, die konsistente Antworten erwarten.
Ein Problem, das auch bei anderen Premium-KIs auftrittWer monatlich Hunderte von Dollar für eine KI ausgibt, strebt nach Exzellenz: hohe Leistung, Zuverlässigkeit, Schutz vor Voreingenommenheit und beleidigender Sprache. Weicht ein Modell erheblich von den Fakten ab und wiederholt extremistische Ideologien oder Memes – wie bei Grok –, ist es für den professionellen Einsatz inakzeptabel : Es stellt sowohl einen ethischen als auch einen funktionalen Mangel dar.
Ähnliche, nicht immer so „extreme“, Vorfälle sind bereits vorgekommen und können sogar Benutzern anderer, sehr teurer Chatbots passieren. Claude Max von Anthropic kostet 200 Dollar im Monat. Google Gemini Ultra verlangt stolze 250 Dollar im Monat. ChatGpt Pro schließlich kostet 200 Dollar im Monat. Doch keiner dieser Chatbots ist frei von Fehlern oder Trugbildern. Leider geht eine höhere Rechenleistung nicht immer mit einer höheren Zuverlässigkeit der Antworten einher. Trugbilder und Fehler sind kein Zeichen für eine „minderwertige Qualität“ der Modelle , sondern eine inhärente Folge ihrer Funktionsweise. Eine höhere Rechenleistung macht die Modelle eloquenter und ermöglicht ihnen, komplexe Antworten zu erstellen, doch das Grundproblem wird dadurch nicht gelöst: Selbst dem fortschrittlichsten Chatbot fehlt das Verständnis für die reale Welt .
La Repubblica