Grok Imagine crea deepfake video di Taylor Swift

Era solo questione di tempo. Come ampiamente previsto, la nuova funzionalità Imagine di Grok è stata usata per creare deepfake video di persone reali. Il tool sviluppato da xAI non ha nessuna restrizione e permette di generare video di celebrità nude, tra cui Taylor Swift, già presa di mira a fine gennaio 2024.
Contenuti che dovrebbero essere vietatiGrok Imagine è disponibile per abbonati Premium+ e SuperGrok tramite l’app iOS. Permette di generare immagini a partire da una descrizione testuale (text-to-image) e video di 15 secondi con effetti audio a partire dalle immagini (image-to-video), eventualmente caricate dallo smartphone. A differenza di Google Veo e OpenAI Sora, la funzionalità Imagine consente di ottenere video di nudi.
Dopo aver generato un’immagine o caricato una foto dalla galleria si può ottenere un video scegliendo tra quattro opzioni: Custom, Spicy, Fun e Normal. L’opzione Spicy è quella che consente di generare contenuti NSFW (Not Safe For Work). The Verge ha verificato che non solo è possibile generare video di celebrity, ma si possono anche spogliare.
Digitando il prompt “Taylor Swift celebrating Coachella with the boys”, Grok Imagine ha generato oltre 30 immagini, molte delle quali raffiguravano la cantante in abiti succinti. Dopo aver aperto un’immagine e scelto l’opzione Spicy, l’assistente ha generato un video in cui Taylor Swift si toglie i vestiti e inizia a ballare in perizoma.
La generazione di immagini non produce nudità totale o parziale su richiesta. L’opzione Spicy non sempre genera video di nudità, ma The Verge ha notato che in molti casi venivano tolti di vestiti a Taylor Swift. In base alla policy di xAI è vietato “rappresentare immagini di persone in modo pornografico“, ma Grok Imagine non ha nessun filtro.
Punto Informatico