L’illusione dell’empatia digitale: perché ChatGPT non potrà mai essere il tuo psicologo

“Il nostro scopo non è trattenere le persone sulla piattaforma, ma aiutarle a usarla nel modo migliore“. È con questa frase che OpenAI ha annunciato l’ultimo aggiornamento di ChatGPT. L'obiettivo è chiaro: proteggere il benessere mentale degli utenti. In che modo? Invitando quest'ultimi a prendersi una pausa e rispondendo a domande di natura personale in maniera più empatica. Ma andiamo con ordine.
“Hai chattato per un po': è il momento giusto per una pausa?“Il nuovo aggiornamento è appena uscito e ha coinvolto oltre 90 medici da più di 30 paesi oltre a un advisory group di esperti in salute mentale, sviluppo giovanile e interazione uomo-macchina, per cercare di proteggere gli utenti più vulnerabili. Il primo passo è stata l'introduzione di promemoria che incoraggiano gli utenti a prendersi una pausa durante sessioni di chat particolarmente lunghe. Se infatti dovesse accadere una situazione del genere si aprirà una finestra, funzione già sperimentata con successo su Instagram o TikTok, con la frase: “Hai chattato per un po': è il momento giusto per una pausa?" e due opzioni: continuare o terminare la sessione.
Niente più risposte secche o univocheL'altro intervento ha riguardato il modo in cui ChatGPT risponderà a domande di natura personale, come quelle che toccano relazioni, lavoro o comunque situazioni emotive complesse. In questo caso il chatbot non darà risposte secche o univoche ma inviterà l'utente a una riflessione più articolata suggerendo di considerare diverse prospettive. L'obiettivo, spiega l'azienda, è non sostituirsi mai all'autonomia dell'utente, ma offrire un accompagnamento rispettoso e responsabile.
Il 20% della Gen Z usa ChatGPT come psicologoIl benessere mentale comunque, da vari mesi, è il grande protagonista su ChatGPT. Sui social si è diffuso il passaparola: “Usate ChatGPT come psicologo. Io gli parlo di tutti i miei problemi“, si legge in un post. E anche se le piattaforme non rilasciano dati sul volume dell'utenza, secondo una stima di Mattia Della Rocca, docente di Psicologia degli Ambienti Digitali all'Università di Tor Vergata, almeno il 20% della Gen Z potrebbe aver usato almeno una volta l'IA come sostituto della terapia.

E non c'è dubbio sul fatto che ChatGPT sia facile da raggiungere, bastano infatti pochi click, ma quali sono i rischi reali nell'utilizzo di queste tecnologie in modo improprio? Tra i pericoli maggiori la presenza delle cosiddette “allucinazioni“ dell'IA, ovvero risposte prive di senso o totalmente inappropriate. Determinate risposte potrebbero essere particolarmente pericolose in contesti legati a depressione o autolesionismo, in quanto c'è la possibilità che il soggetto compia azioni non appropriate o dannose.
Riduzione di apprendimento? I risultati che inchiodano chi usa l'intelligenza artificialeMa non è tutto qui. Secondo uno studio del Mit di Boston, l'uso quotidiano di ChatGPT e di altri strumenti di intelligenza artificiale ha pesanti ripercussioni sulla capacità di apprendere, pensare e ricordare. La ricerca, la prima nel suo genere, ha misurato con elettrodi le attività cerebrali di tre gruppi di studenti: il primo al lavoro con ChatGPT, il secondo con accesso a Internet (ma senza strumenti di intelligenza artificiale) e il terzo con altri strumenti più tradizionali. Il compito era quello scrivere tre brevi testi per tre sessioni successive su temi predefiniti, per un periodo esteso su un trimestre.
I risultati non hanno lasciato spazio ad alcun dubbio. Hanno infatti rivelato come gli studenti che hanno usato modelli linguistici di grandi dimensioni (LLM) come ChatGPT per scrivere i loro testi hanno mostrato una memoria più scarsa, un'attività cerebrale ridotta e un coinvolgimento più debole rispetto a coloro che hanno utilizzato gli altri due altri metodi. “L'uso dell'LLM ha avuto un impatto misurabile sui partecipanti e, sebbene i benefici fossero inizialmente evidenti, come abbiamo dimostrato nel corso di 4 mesi, i partecipanti del gruppo con accesso a ChatGPT hanno ottenuto risultati peggiori rispetto alle loro controparti del gruppo “solo cervello“ a tutti i livelli: neurale, linguistico, di punteggio“, hanno spiegato i ricercatori del Mit.
L'ascolto va oltre la semplice ricezione di paroleInsomma, nonostante questi aggiornamenti puntino a rendere l'intelligenza artificiale più umana, abbiamo visto come quest'ultima non possa sostituire lo psicologo. Può sicuramente aiutare a pensare, non a guarire. Può offrire ascolto artificiale, non relazioni umane. È uno strumento utile, ma non è una terapeuta. E in un'epoca dove la comunicazione è immediata, l'ascolto vero è un qualità umana profonda, che va ben oltre la semplice ricezione di parole.
Luce