Hacker hat Amazon Q eine Aufforderung zum Löschen von Dateien und Cloud-Daten hinzugefügt

Kürzlich ist eine Sicherheitslücke bei Amazons KI-Programmierassistent „Q“ aufgetaucht, der in VS Code integriert ist. Der von 404 Media gemeldete Vorfall enthüllte eine Lücke in Amazons Sicherheitsprotokollen, die es einem Hacker ermöglichte, schädliche Befehle in ein öffentlich veröffentlichtes Update einzufügen.
Der Hacker konnte mithilfe eines temporären GitHub-Kontos einen Pull Request einreichen, der ihm Administratorzugriff gewährte. In dieses nicht autorisierte Update waren destruktive Anweisungen eingebettet, die den KI-Assistenten anwiesen, möglicherweise Benutzerdateien zu löschen und Amazon Web Services (AWS)-Umgebungen zu bereinigen.
Trotz der schwerwiegenden Natur dieser Befehle, die auch dazu gedacht waren, die Aktionen in einer Datei mit dem Namen /tmp/CLEANER.LOG zu protokollieren, hat Amazon die kompromittierte Version Berichten zufolge zusammengeführt und veröffentlicht, ohne dass dies entdeckt wurde.
Das Unternehmen entfernte das fehlerhafte Update später ohne öffentliche Ankündigung aus seinen Unterlagen, was Fragen zur Transparenz aufwirft. Corey Quinn, Chief Cloud Economist bei The Duckbill Group, äußerte sich angesichts dieses Ereignisses skeptisch gegenüber Amazons Aussage, dass „Sicherheit unsere oberste Priorität“ sei.
„Wenn es so aussieht, wenn Sicherheit die oberste Priorität hat, kann ich es kaum erwarten zu sehen, was passiert, wenn sie an zweiter Stelle steht“, schrieb Quinn in seinem Beitrag auf LinkedIn.
Der Kern des Problems liegt in der Manipulation eines Open-Source-Pull-Requests durch den Hacker. Dadurch gelang es ihm, Befehle in Amazons Q -Coding-Assistent einzuschleusen. Obwohl es unwahrscheinlich ist, dass diese Anweisungen ohne direkte Benutzerinteraktion automatisch ausgeführt werden, hat der Vorfall deutlich gemacht, wie KI-Agenten zu stillen Trägern von Angriffen auf Systemebene werden können.
Es zeigte eine Lücke im Verifizierungsprozess für in Produktionssysteme integrierten Code auf, insbesondere für KI-gesteuerte Tools. Der Schadcode zielte darauf ab, die Fähigkeiten der KI auszunutzen, um zerstörerische Aktionen auf dem System und den Cloud-Ressourcen eines Benutzers durchzuführen.
Der gestrige Vorfall mit Amazon Q war ein Weckruf, wie KI-Agenten angegriffen werden können. PromptKit versucht, ähnliche Probleme zu lösen und zu verhindern, dass sie erneut auftreten.
ganzen Beitrag lesen👇 https://t.co/atOWfilWFq
Als Reaktion auf solche Schwachstellen hat Jozu ein neues Tool namens „PromptKit“ veröffentlicht. Dieses System ist über einen einzigen Befehl zugänglich und bietet einen lokalen Reverse-Proxy zur Aufzeichnung von OpenAI-kompatiblem Datenverkehr sowie eine Befehlszeilenschnittstelle (CLI) und eine textbasierte Benutzeroberfläche (TUI) zum Durchsuchen, Markieren, Vergleichen und Veröffentlichen von Eingabeaufforderungen.
Jozu gab auf X.com bekannt , dass PromptKit ein lokales Open-Source-Tool ist, das ein überprüfbares und produktionssicheres Prompt-Management ermöglichen und damit ein systemisches Risiko angesichts der zunehmenden Abhängigkeit von generativer KI angehen soll.
Heute veröffentlichen wir eine erste Version von Jozu PromptKit→ einem lokalen Tool zum Erfassen, Überprüfen und Verwalten von LLM-Prompt-Interaktionen. Es gewährleistet richtliniengesteuerte Workflows für verifizierte, überprüfbare Prompt-Artefakte in der Produktion.
Kostenlos zum Ausprobieren und Open Source. pic.twitter.com/0Up4mc1Vy9
– Jozu (@Jozu_AI) 24. Juli 2025
Görkem Ercan, CTO von Jozu, erklärte gegenüber Hackread.com, dass PromptKit die Lücke zwischen Experimenten und Implementierung schließen soll. Es etabliert einen richtliniengesteuerten Workflow und stellt sicher, dass nur verifizierte und geprüfte Prompt-Artefakte in die Produktion gelangen – im Gegensatz zu dem rohen, ungeprüften Text, der AWS beeinflusste.
Ercan betonte außerdem, dass dieses Tool den fehlgeschlagenen menschlichen Verifizierungsprozess durch einen strengen, auf Richtlinien und Signaturen basierenden Workflow ersetzt hätte, der die böswillige Absicht effektiv erkannt hätte, bevor sie in Kraft getreten wäre.
HackRead