Un hacker ha aggiunto un prompt ad Amazon Q per cancellare file e dati nel cloud

Di recente è emersa una vulnerabilità di sicurezza che riguarda l'assistente di programmazione AI di Amazon, "Q", integrato con VS Code. L'incidente, segnalato da 404 Media, ha rivelato una falla nei protocolli di sicurezza di Amazon, consentendo a un hacker di inserire comandi dannosi in un aggiornamento rilasciato al pubblico.
L'hacker, utilizzando un account GitHub temporaneo, è riuscito a inviare una richiesta pull che gli ha concesso l'accesso amministrativo. In questo aggiornamento non autorizzato erano incorporate istruzioni distruttive che indirizzavano l'assistente AI a eliminare potenzialmente i file degli utenti e a ripulire gli ambienti di Amazon Web Services (AWS).
Nonostante la natura severa di questi comandi, che avevano anche lo scopo di registrare le azioni in un file denominato /tmp/CLEANER.LOG, Amazon avrebbe unito e rilasciato la versione compromessa senza essere rilevata.
L'azienda ha successivamente rimosso l'aggiornamento difettoso dai propri archivi senza alcun annuncio pubblico, sollevando dubbi sulla trasparenza. Corey Quinn, Chief Cloud Economist di The Duckbill Group, ha espresso scetticismo riguardo alla dichiarazione di Amazon "la sicurezza è la nostra massima priorità" alla luce di questo evento.
"Se questa è la situazione quando la sicurezza è la priorità assoluta, non vedo l'ora di vedere cosa succederà quando sarà al secondo posto", ha scritto Quinn nel suo post su LinkedIn.
Il nocciolo della questione risiede nel modo in cui l'hacker ha manipolato una richiesta pull open source. In questo modo, è riuscito a iniettare comandi nell'assistente di codifica Q di Amazon . Sebbene fosse improbabile che queste istruzioni si autoeseguissero senza l'interazione diretta dell'utente, l'incidente ha messo in luce in modo critico come gli agenti di intelligenza artificiale possano trasformarsi in vettori silenziosi per attacchi a livello di sistema.
Ha evidenziato una lacuna nel processo di verifica del codice integrato nei sistemi di produzione, in particolare per gli strumenti basati sull'intelligenza artificiale. Il codice dannoso mirava a sfruttare la capacità dell'intelligenza artificiale di eseguire azioni distruttive sul sistema e sulle risorse cloud di un utente.
L'incidente di ieri con Amazon Q ha messo in luce come gli agenti di intelligenza artificiale possano essere attaccati. PromptKit sta cercando di risolvere problemi simili e di contribuire a impedire che si ripetano.
leggi il post completo👇 https://t.co/atOWfilWFq
In risposta a tali vulnerabilità, Jozu ha rilasciato un nuovo strumento chiamato "PromptKit". Questo sistema, accessibile tramite un singolo comando, offre un proxy inverso locale per registrare il traffico compatibile con OpenAI e fornisce un'interfaccia a riga di comando (CLI) e un'interfaccia utente testuale (TUI) per esplorare, taggare, confrontare e pubblicare prompt.
Jozu ha annunciato su X.com che PromptKit è uno strumento open source, incentrato innanzitutto sul territorio, che mira a fornire una gestione dei prompt verificabile e sicura per la produzione, affrontando un rischio sistemico dovuto alla crescente dipendenza dall'intelligenza artificiale generativa.
Oggi rilasciamo una prima versione di Jozu PromptKit→ uno strumento local-first per l'acquisizione, la revisione e la gestione delle interazioni con i prompt LLM. Garantisce flussi di lavoro controllati da policy per artefatti di prompt verificati e verificabili in produzione
Libero di provare e open source. pic.twitter.com/0Up4mc1Vy9
— Jozu (@Jozu_AI) 24 luglio 2025
Görkem Ercan, CTO di Jozu, ha dichiarato a Hackread.com che PromptKit è progettato per colmare il divario tra la sperimentazione e l'implementazione dei prompt. Stabilisce un flusso di lavoro controllato da policy, garantendo che solo gli artefatti dei prompt verificati e controllati, a differenza del testo grezzo e non verificato che ha avuto un impatto su AWS, raggiungano la produzione.
Ercan ha inoltre sottolineato che questo strumento avrebbe sostituito il fallito processo di verifica umana con un rigoroso flusso di lavoro basato su policy e firme, individuando di fatto l'intento malevolo prima che venisse messo in atto.
HackRead