"È un'illusione": uno studio Apple sfida il più grande mito dell'intelligenza artificiale.

Qualche giorno fa, Apple ha scatenato una polemica nel mondo dell'intelligenza artificiale (IA) con la pubblicazione di uno studio che prende di mira direttamente uno dei pilastri discorsivi di questa tecnologia: la presunta capacità di modelli come ChatGPT di "ragionare".
L' articolo , intitolato The Illusion of Thinking , sostiene che, nonostante le apparenze, i sistemi di intelligenza artificiale generativa non pensano o ragionano come gli esseri umani e che persino il "ragionamento" che sembrano mostrare può essere controproducente .
La ricerca, condotta dagli scienziati dell'Apple Machine Learning Research , arriva in un momento in cui l'azienda di Cupertino sembra essere in ritardo rispetto a concorrenti come OpenAI , Google e Anthropic, leader nello sviluppo di modelli linguistici avanzati.
Per questo motivo, molti osservatori hanno subito considerato lo studio come un tentativo di mettere in discussione le narrazioni esterne, piuttosto che come un contributo puramente accademico.
Ciononostante, il contenuto del lavoro non è passato inosservato. Apple propone una nuova categoria di modelli chiamati Large Reasoning Models (LRM) , progettati per generare ragionamenti intermedi prima di fornire una risposta. L'obiettivo: valutare se l'inclusione esplicita di processi logici migliori le prestazioni dell'IA in diversi tipi di attività.
"The Illusion of Thinking": il documento con cui Apple tenta di smascherare l'intelligenza artificiale.
Per evitare distorsioni derivanti dai dati acquisiti durante l'addestramento, i ricercatori hanno sottoposto questi modelli a una serie di enigmi sintetici come la classica Torre di Hanoi, il salto della dama, gli attraversamenti fluviali e i problemi di manipolazione dei blocchi (Blocks World). Questi scenari sono stati specificamente progettati per richiedere pensiero logico e pianificazione passo dopo passo .
I risultati sono stati sorprendenti: sebbene gli LRM abbiano mostrato un vantaggio rispetto ai modelli tradizionali nelle sfide di media complessità, crollano completamente quando la difficoltà viene aumentata .
Inoltre, questo crollo non è dovuto a una mancanza di risorse computazionali, bensì a un fenomeno più sconcertante: "Il loro sforzo di ragionamento aumenta con la complessità del problema fino a un certo punto, per poi diminuire nonostante abbiano un budget adeguato".
Ciò che colpisce è che, nei test semplici, i modelli di ragionamento hanno prestazioni persino peggiori rispetto ai modelli standard . In altre parole, quando i compiti non richiedono una logica avanzata, pensare troppo può diventare un ostacolo .
"L'analisi della prima mossa fallita dei modelli ha rivelato un comportamento sorprendente . Ad esempio, potevano eseguire fino a 100 mosse corrette sulla Torre di Hanoi, ma non riuscivano a eseguire più di 5 mosse corrette sul puzzle dell'attraversamento del fiume", aggiungono gli autori.
Nel complesso, lo studio sembra sfidare la narrazione sempre più diffusa secondo cui siamo sull'orlo di un'intelligenza artificiale di livello umano o addirittura di un'AGI ( Intelligenza Artificiale Generale ).
Apple suggerisce che questa idea si basi su un'illusione : quella di confondere la capacità dei modelli di verbalizzare passaggi logici con una reale comprensione dei problemi.
In questo senso, la conclusione del lavoro è categorica: ciò che sembra ragionamento non è altro che l'eco di schemi appresi . L'IA, almeno per ora, non ragiona: simula . E quando la simulazione viene spinta oltre i suoi limiti noti, crolla .
Apple non ha ancora lanciato un modello proprio che possa competere ad armi pari. (Foto: Reuters)
Questa visione contrasta con l'approccio adottato da altri giganti della tecnologia, che hanno esplicitamente incorporato funzioni di ragionamento nei loro modelli. OpenAI con GPT-4 , Google con Gemini e Anthropic con Claude mirano tutti a rafforzare queste capacità, viste come un passo avanti verso sistemi più autonomi e affidabili.
Sul fronte critico, molti hanno sottolineato che lo studio di Apple non rivela un difetto grave, ma descrive semplicemente un fenomeno ben noto: l'eccesso di pensiero . Ovvero, la tendenza di alcuni modelli a generare ragionamenti inutilmente lunghi e complessi , che possono portare a errori o crash.
Ci sono anche dubbi sul fatto che Apple, senza una propria intelligenza artificiale al pari dei suoi concorrenti , abbia un incentivo a screditare i progressi altrui. L'azienda mantiene partnership con attori come OpenAI, ma deve ancora lanciare un proprio modello linguistico che competa ad armi pari.
Al di là delle intenzioni dietro il documento, la verità è che Apple è riuscita a portare sul tavolo una discussione chiave: cosa significa veramente "pensare" per l'intelligenza artificiale? Stiamo confondendo la forma con la sostanza?
Nell'euforia che circonda i sistemi conversazionali, "L'illusione del pensiero" pone una sfida. E, sebbene non ponga fine al dibattito, mette in discussione una delle fantasie più ricorrenti del momento: che le macchine stiano finalmente iniziando a pensare.
Clarin