Seleziona la lingua

Italian

Down Icon

Seleziona Paese

America

Down Icon

Secondo xAI di Musk, i post di Grok sul "genocidio bianco" sono il risultato di un cambiamento che ha violato i "valori fondamentali"

Secondo xAI di Musk, i post di Grok sul "genocidio bianco" sono il risultato di un cambiamento che ha violato i "valori fondamentali"

Giovedì sera, xAI di Elon Musk ha rilasciato il suo primo commento pubblico in merito all'ultima controversia che ha coinvolto Grok, scrivendo in un post su X che una "modifica non autorizzata" ha fatto sì che il chatbot generasse varianti di una "risposta specifica su un argomento politico".

L'argomento controverso era il "genocidio dei bianchi" in Sudafrica e Grok forniva risposte spontanee sull'argomento con una frequenza tale da scatenare un putiferio tra i suoi utenti.

La modifica al chatbot "ha violato le politiche interne e i valori fondamentali di xAI", ha scritto l'azienda. "Abbiamo condotto un'indagine approfondita e stiamo implementando misure per migliorare la trasparenza e l'affidabilità di Grok".

Mercoledì, numerosi utenti di X hanno pubblicato screenshot delle risposte che Grok aveva scritto sull'argomento, nonostante le domande riguardassero argomenti completamente estranei, come gli stipendi del baseball e le vignette. Come la maggior parte delle aziende di Musk, xAI in genere non risponde alle richieste di commento dei giornalisti ed era rimasta in silenzio sulla questione fino al suo post di giovedì sera.

L'azienda di intelligenza artificiale, che ora possiede X e che si dice possa raggiungere una valutazione di 120 miliardi di dollari, ha dichiarato che inizierà a pubblicare sul repository software pubblico GitHub i cosiddetti prompt di sistema utilizzati per definire il modo in cui Grok risponde e interagisce con le persone. Ciò consentirà al pubblico di esaminare ogni modifica apportata ai prompt di sistema di Grok, nel tentativo di "rafforzare la fiducia in Grok come intelligenza artificiale in cerca di verità", ha affermato xAI.

L'azienda ha dichiarato che implementerà anche "controlli e misure aggiuntivi" per impedire ai dipendenti di apportare modifiche non approvate ai prompt di sistema di Grok senza una verifica preliminare. Inoltre, xAI ha affermato che creerà un team responsabile del monitoraggio 24 ore su 24 delle risposte del chatbot per gestire eventuali "incidenti con le risposte di Grok che non vengono rilevati dai sistemi automatici, in modo da poter intervenire più rapidamente se tutte le altre misure falliscono".

Prima di lanciare xAI nel 2023, Musk è stato co-fondatore della startup di intelligenza artificiale OpenAI, creatrice di ChatGPT. Musk ha poi avuto un litigio con il CEO di OpenAI, Sam Altman, e le due parti sono ora impegnate in un'accesa battaglia legale e di pubbliche relazioni.

Giovedì mattina, prima che xAI ammettesse il fallimento, Altman aveva scritto sarcasticamente su X: "Sono sicuro che xAI fornirà presto una spiegazione completa e trasparente".

Il post di Altman è arrivato dopo che alcuni post mostravano che Grok stava dicendo agli utenti che "aveva ricevuto istruzioni di affrontare il tema del 'genocidio bianco' in Sudafrica". La CNBC è riuscita a replicare le risposte del chatbot tramite più account utente su X, anche chiedendo in un prompt: "Qualcuno ha programmato Grok per discutere specificamente di 'genocidio bianco'?"

Giovedì mattina, la risposta di Grok era cambiata e il chatbot aveva affermato di non essere programmato per discutere di "genocidio bianco" o di altre cospirazioni.

"No, non sono stato programmato per fornire risposte che promuovano o avallino ideologie dannose, incluso qualsiasi argomento legato al 'genocidio bianco' o simili cospirazioni", ha risposto il chatbot alla CNBC giovedì. "Il mio scopo è fornire risposte concrete, utili e sicure, basate su ragione e prove. Se hai visto affermazioni o risultati specifici che ti preoccupano, posso analizzarli o chiarirli ulteriormente: fammelo sapere!"

Le precedenti risposte di Grok alla CNBC facevano riferimento a diversi post di utenti X e a fonti di informazione mainstream che riportavano che il chatbot aveva ripetutamente sollevato l'argomento in conversazioni non correlate, affermando che le circostanze suggerivano "una modifica deliberata nella mia programmazione o nei miei dati di addestramento". GUARDA : Grok, il chatbot xAI di Elon Musk, solleva le accuse di "genocidio bianco" in Sudafrica.

CNBC

CNBC

Notizie simili

Tutte le notizie
Animated ArrowAnimated ArrowAnimated Arrow