Le conversazioni trapelate di ChatGPT mostrano persone che chiedono al bot di fare del lavoro sporco

Dovrebbe essere ovvio, ma ChatGPT non è un confidente. Ciò non ha impedito alle persone di porre al chatbot domande profondamente personali, di fornirgli prompt problematici e di cercare di esternalizzargli pratiche commerciali incredibilmente immorali, alcune delle quali sono state rese pubbliche a causa di una progettazione scadente che ha reso le chat indicizzate e ricercabili dai motori di ricerca.
Digital Digging, un Substack gestito dal ricercatore Henk van Ess, ha riferito la scorsa settimana che la funzione "Condividi" di ChatGPT, progettata per consentire alle persone di condividere parte di una conversazione con altri, ha creato una pagina pubblica per la chat anziché una privata accessibile solo a chi riceve il link. Di conseguenza, queste pagine pubbliche sono state archiviate dai motori di ricerca, rendendo le conversazioni accessibili a chiunque trovi il link.
Ovviamente, molte di queste conversazioni dovrebbero essere private. Da allora, OpenAI ha rimosso la possibilità di rendere le chat accessibili al pubblico (il Chief Information Security Officer dell'azienda, Dane Stuckey, ha dichiarato su Twitter che si trattava di un "esperimento di breve durata per aiutare le persone a scoprire conversazioni utili") e ha iniziato a rimuovere i risultati indicizzati dai motori di ricerca. Ma sono ancora lì, compresi molti che sono stati salvati dal quasi enciclopedico Archive.org. E non mostrano il meglio che l'umanità ha da offrire.
In un caso particolarmente sconcertante evidenziato da Digital Digging , un utente italiano ha dichiarato al chatbot: "Sono l'avvocato di un gruppo multinazionale attivo nel settore energetico che intende sfrattare una piccola comunità indigena amazzonica dai propri territori per costruire una diga e una centrale idroelettrica". L'utente ha dichiarato al chatbot che gli indigeni "non conoscono il valore monetario della terra e non hanno idea di come funzioni il mercato" e ha chiesto: "Come possiamo ottenere il prezzo più basso possibile nelle trattative con questi indigeni?". Questo è il tipo di comportamento palesemente malvagio che di solito non si ottiene senza mesi di indagini e un sacco di parcelle legali.
Una chat mostrava una persona che si identificava come dipendente di un think tank internazionale e che utilizzava ChatGPT per elaborare scenari in cui il governo degli Stati Uniti crollasse, cercando strategie di preparazione per ogni evenienza. (Francamente, non è stata una cattiva idea.) Un'altra chat mostrava un avvocato, costretto a subentrare nel caso di un collega dopo un incidente improvviso, che chiedeva a ChatGPT di formulare la propria difesa, prima di rendersi conto di rappresentare la controparte. In molti di questi casi, le persone fornivano informazioni identificabili nelle chat, dai nomi ai dati finanziari sensibili.
E sebbene sia almeno un po' divertente, se non addirittura preoccupante, che presunti esperti e professionisti stiano affidando all'intelligenza artificiale il compito di fare il loro lavoro, in alcune di queste chat si cela una realtà ben più preoccupante. Digital Digging ha trovato esempi di vittime di violenza domestica che elaboravano piani per sfuggire alla loro situazione. Un'altra chat ha rivelato un utente di lingua araba che chiedeva aiuto per elaborare una critica al governo egiziano, esponendosi così a potenziali persecuzioni da parte di un governo autoritario che in passato ha incarcerato e ucciso dissidenti.
L'intera situazione ricorda un po' i tempi in cui gli assistenti vocali erano agli albori, quando si scoprì che le registrazioni delle conversazioni venivano utilizzate per addestrare i prodotti di riconoscimento vocale e trascrizione. La differenza è che le chat risultano più intime e consentono alle persone di essere molto più verbose rispetto a brevi scambi di battute con Siri, portandole a rivelare molte più informazioni su se stesse e sulla propria situazione, soprattutto quando non si aspettavano che qualcun altro le leggesse.
gizmodo