Usare ChatGPT? Potrebbe renderti STUPIDO: le scansioni cerebrali rivelano come l'uso dell'intelligenza artificiale eroda le capacità di pensiero critico.

Pubblicato: | Aggiornato:
È uno strumento che milioni di studenti in tutto il mondo utilizzano quotidianamente.
Ma se ti rivolgi regolarmente a ChatGPT, un nuovo studio potrebbe far suonare un campanello d'allarme.
Gli scienziati del MIT Media Lab hanno lanciato l'allarme: l'uso dell'intelligenza artificiale potrebbe avere ripercussioni sulla capacità di apprendere, pensare e ricordare.
Nel loro studio, il team ha misurato l'attività elettrica nel cervello di 54 studenti per seguire diverse sessioni di scrittura di saggi.
Un gruppo ha utilizzato ChatGPT, un altro ha utilizzato Google e l'ultimo non ha ricevuto alcun aiuto esterno.
I risultati hanno rivelato che gli studenti che hanno utilizzato modelli linguistici di grandi dimensioni (LLM) comeChatGPT per scrivere saggi hanno mostrato una memoria più scarsa, un'attività cerebrale ridotta e un coinvolgimento più debole rispetto a coloro che hanno utilizzato altri metodi.
"Dato che l'impatto educativo dell'uso dell'LLM sta appena iniziando a manifestarsi nella popolazione generale, in questo studio dimostriamo l'urgente problema di una probabile diminuzione delle capacità di apprendimento sulla base dei risultati del nostro studio", hanno spiegato i ricercatori.
"L'uso dell'LLM ha avuto un impatto misurabile sui partecipanti e, sebbene i benefici fossero inizialmente evidenti, come abbiamo dimostrato nel corso di 4 mesi, i partecipanti del gruppo LLM hanno ottenuto risultati peggiori rispetto alle loro controparti del gruppo Brain-only a tutti i livelli: neurale, linguistico, di punteggio".
Nel loro studio, il team ha misurato l'attività elettrica cerebrale per monitorare 54 studenti durante diverse sessioni di scrittura di saggi. Un gruppo ha utilizzato ChatGPT (LLM), un altro Google (Search) e l'ultimo non ha ricevuto alcun aiuto esterno (Brain).
È uno strumento che milioni di studenti in tutto il mondo usano quotidianamente. Ma se ti rivolgi regolarmente a ChatGPT, un nuovo studio potrebbe far suonare un campanello d'allarme.
Nel loro studio, il team si è prefissato di comprendere il "costo cognitivo" degli LLM come ChatGPT.
"Con l'attuale ampia adozione di prodotti LLM come ChatGPT di OpenAI, sia gli esseri umani che le aziende interagiscono e utilizzano gli LLM quotidianamente", hanno spiegato nel loro studio, pubblicato su arXiv .
"Come qualsiasi altro strumento, presenta una serie di vantaggi e limitazioni.
"Questo studio si concentra sulla scoperta del costo cognitivo dell'utilizzo di un LLM nel contesto didattico della scrittura di un saggio".
I partecipanti sono stati assegnati a tre gruppi (ChatGPT, Google e Brain-only) ed è stato chiesto loro di scrivere un saggio mentre indossavano un dispositivo elettroencefalografico (EEG) per registrare l'attività cerebrale.
I risultati hanno rivelato che l'uso dell'intelligenza artificiale ha avuto un "impatto misurabile", con i partecipanti che hanno mostrato una "probabile diminuzione delle capacità di apprendimento".
Sebbene "inizialmente i benefici fossero evidenti", questo gruppo "ha ottenuto risultati peggiori rispetto ai colleghi del gruppo che ha studiato solo il cervello a tutti i livelli: neurale, linguistico, di punteggio" in un periodo di quattro mesi.
Nel frattempo, gli utenti di Google hanno dimostrato un "coinvolgimento moderato" e il gruppo che non ha avuto alcun coinvolgimento esterno ha mostrato una maggiore attività cerebrale e idee originali nei propri contenuti.
Nel loro studio, il team si è prefissato di comprendere il "costo cognitivo" di LLM come ChatGPT (immagine di repertorio)
Se poi questi studenti provassero a usare ChatGPT, la loro attività cerebrale aumenterebbe ancora.
I ricercatori hanno ipotizzato che ciò accadesse perché gli studenti avrebbero cercato di combinare il nuovo strumento con ciò che già conoscevano.
Mentre il gruppo ChatGPT continuava a dimostrare meno attività, anche quando a loro è stato chiesto di scrivere autonomamente il saggio.
Gli utenti LLM hanno ammesso che, rispetto al gruppo del motore di ricerca, sono riusciti a rispondere alle domande con una "minore difficoltà".
Tuttavia, hanno affermato: "Questa comodità ha avuto un costo cognitivo, riducendo la propensione degli utenti a valutare criticamente l'output dell'LLM o le "opinioni" (risposte probabilistiche basate sui set di dati di addestramento).
"Ciò evidenzia un'evoluzione preoccupante dell'effetto "camera d'eco": anziché scomparire, si è adattato per modellare l'esposizione degli utenti attraverso contenuti curati algoritmicamente.
"Ciò che viene classificato come "eccellente" è in ultima analisi influenzato dalle priorità degli azionisti dell'LLM."
Daily Mail