Giambattista Parascandolo, il matematico italiano di OpenAI che insegna alle macchine a ragionare

A volte, per cambiare il mondo, basta fermarsi a pensare. È quello che fanno i nuovi modelli di intelligenza artificiale sviluppati da OpenAI. L’ultimo si chiama o3 ed è un modello di ragionamento. Rispetto a ChatGPT-4, non dà risposte immediate: si prende del tempo. Riflette, sbaglia, si corregge, migliora. E la bella notizia è che a insegnargli a ragionare è un giovane ricercatore italiano. Cresciuto fino ai cinque anni con il metodo Montessori, ha imparato le basi che oggi applica ai modelli di intelligenza artificiale.
Lui è Giambattista Parascandolo, 33 anni, matematico, laurea triennale a Tor Vergata, specialistica in Finlandia, dottorato in machine learning al Max Planck Institute di Tubinga e all'ETH di Zurigo. È stato il primo italiano a entrare in OpenAI, quattro anni fa, quando l’azienda era ancora una piccola startup di ricerca da 150 persone. Oggi sono quasi 2000 ed è tra le aziende private più capitalizzate della storia a livello globale.
Parascandolo è alla guida di un team che lavora sull’Intelligenza Artificiale Generale e sui modelli di ragionamento definiti una svolta epocale. Modelli progettati non per fornire la prima risposta possibile, ma per fermarsi e ragionare. «Dante ci ha messo quindici anni a scrivere la Divina Commedia. Se avesse avuto una deadline di un mese, non sarebbe uscita la stessa opera. Che cosa ha fatto in quegli anni? Ha pensato, ha scritto bozze, le ha corrette, ci ha ripensato, è tornato sui suoi passi. Ecco, questi modelli funzionano così: più pensano, più danno risposte migliori. E i loro pensieri si possono leggere. Basta passarci sopra con il mouse. Appaiono e scompaiono. Dicono: “Aspetta, questa cosa si può dire meglio”. “Fammi ricontrollare quel calcolo”. “L’utente chiede che… devo essere sicuro che tutto abbia un senso”. Leggendoli, ti accorgi che sono sorprendentemente simili ai pensieri di un essere umano».
Scienziato, Parascandolo ha sviluppato le basi tecniche perché questi modelli imparassero a ragionare in giro per il mondo.
Romano, figlio di un giornalista Rai, Renato Parascandolo, già direttore di Rai Educational e di una regista di documentari culturali, Giambattista cresce con il metodo Montessori. “Dai miei genitori ho capito il valore dell’apprendimento e dell’esplorazione. Alla scuola materna Montessori ho avuto un’educazione improntata al fare, alla libertà, alla creatività in un ambiente strutturato. Ho messo insieme i due metodi. Oggi facciamo la stessa cosa con le macchine: non insegniamo loro a ragionare, creiamo l’ambiente perché possano farlo da sole”.
Ascoltarlo parlare è una meraviglia. Giambattista viene spesso inviato per spiegare al governatore della California o ai senatori cosa fanno in OpenAI. Incontra le delegazioni italiane che vanno in Silicon Valley. Racconta le potenzialità di questi strumenti e cosa c’è nel futuro. “Abbiamo un po' tutti gli ingredienti in mano per continuare a migliorare questi sistemi. Sono ottimista sul fatto che sarà un continuo progresso. È stata una vera avventura e continua a esserlo, ma vivo tutto con un forte senso di responsabilità”.
Su come funziona la mente, Parascandolo è interessato fin da bambino. “Mi sono sempre fatto le classiche domande chi sono, cosa voglio, perché…. Non cercavo però risposte filosofiche. Le cercavo pragmatiche. Ho sempre voluto lavorare su qualcosa che avesse a che fare col capire la mente. Ma non sapevo cosa”. Inizia a leggere i libri del neurologo e scrittore Oliver Sacks, le riviste specializzate in neuroscienze: “Cercavo tutti i modi per avvicinarmi a questo mondo senza mai trovarli”. Liceo classico (“La struttura degli studi mi ha profondamente annoiato”). Si iscrive prima a Ingegneria, poi molla e inizia matematica. Sarà l’Erasmus in Finlandia a fargli capire la strada.
“Avevo 23 anni. Le reti neurali artificiali cominciavano a funzionare grazie a una nuova generazione di hardware, sempre più potente. Ho capito che lì dentro c’era qualcosa di interessante: un modo per studiare la mente senza rinunciare alla matematica”. A quel punto decide di orientare tutti i suoi studi all’intelligenza artificiale ma non esisteva ancora una formazione strutturata sull’AI. Così inizia a studiare da autodidatta, seguendo lezioni universitarie via internet.
“All’epoca c’erano pochissimi professori che insegnavano le reti neurali. Ma alcuni avevano caricato i loro corsi online”. Studia e punta a entrare in DeepMind. “Era la sola azienda che lavorava seriamente sull’AGI. Ma per essere assunti serviva un dottorato. Così ho preso un dottorato in informatica e AI, tra Svizzera e Germania”. Durante il percorso fa due internship: una a Palo Alto a Google X, nel 2018, e una alla stessa DeepMind, a Londra, nel 2019. Poi torna per concludere il dottorato, ma arriva la pandemia, le aziende mettono in pausa le assunzioni. Così nel frattempo fa domanda per una posizione da professore al MIT di Boston, portando un programma di ricerca sul ragionamento nelle reti neurali. E qui inizia a scontrarsi con le perplessità della vecchia scuola. “Ho fatto qualcosa come 20 colloqui. Ero arrivato fino alla fine eppure la mia ricerca non convinceva. Diversi professori mi dicevano che quel filone non aveva senso. Che le reti neurali erano una moda passeggera, senza futuro. È stata un’esperienza molto formativa, che poi ho visto succedere un po’ in generale nel campo dell’AI”.
Si stava verificando un cambio di paradigma e non tutti erano pronti. “C’è stata una prima ondata di intelligenza artificiale con un approccio completamente diverso, basato soprattutto su regole logiche, quindi più sul codice standard.Ma c’era una piccola corrente che diceva: no, il modo giusto non è mettere l’intelligenza nel codice, ma costruire un cervello artificiale che apprenda da solo. Ma per moltissimo tempo le reti neurali artificiali non hanno funzionato granché, soprattutto perché l’hardware non era ancora pronto. Non c’erano le GPU che usiamo oggi per allenare i nostri modelli. Poi hanno cominciato a funzionare. Ma nel frattempo il campo si era trasformato, si era costruito sulle basi del paradigma precedente. E per tanti professori è stato difficile accettare il nuovo paradigma”.
Quel rifiuto al MIT, però, non chiude la strada. Anzi. Il Covid passa, le aziende ricominciano ad assumere, a Giambattista finisce il dottorato e arrivano due offerte: una proprio da DeepMind, l’altra da quella che era solo una startup in un palazzo scalcinato a San Francisco: OpenAI. “Ho scelto di andare a vedere cosa stava succedendo in Usa: avevano appena pubblicato GPT-3. Quando sono arrivato OpenAI aveva un piccolo ufficio a San Francisco, ma l’energia era incredibile”. Quattro anni dopo, l’azienda è diventata un colosso con 14 sedi nel mondo e più di 500 milioni di utenti attivi ogni settimana.
Cosa vuol dire che lavori sul ragionamento dei modelli? “Noi non diciamo alla macchina cosa deve fare. Costruiamo ambienti perché possa imparare da sola. Questo si chiama apprendimento per rinforzo: invece di allenare l’AI con i classici dati, le creiamo un ambiente che sia il più interessante possibile affinché possa apprendere da sola. Provando e sbagliando. È un po’ come con il metodo Montessori: metti il bambino in un ambiente stimolante, con giochi, computer, Lego. Un ambiente ricco di possibilità, senza la supervisione, e lo lasci libero di esplorare. E lui impara senza che nessun insegnate gli dica: devi imparare questo. Anche con l’intelligenza artificiale funziona così: se le dai un ambiente ben progettato, impara per esperienza, fa errori, li corregge, migliora”.Se gli chiedi di Sam Altman ti dice che è un tipo molto alla mano. “Ogni tanto capita di fare due chiacchiere nei corridoi”. Se domandi dell’ultima acquisizione di OpenAI, la startup “io” fondata dall’ex designer responsabile dei più grandi successi della Mela, Jonathan Ive, con l’obiettivo di ridefinire la relazione tra esseri umani e intelligenza artificiale, risponde: “Non so niente al di fuori del mio ambito di ricerca diretta. Lavoro sul ragionamento, non sui dispositivi”. Poi sorride. Dei genitori: “Sono molto appassionati, usano ChatGPT tutti i giorni”. Dell’Italia: “La nostra formazione universitaria è troppo teorica. Bisognerebbe imparare a programmare sin da piccoli: tra l’altro programmare è una cosa divertentissima. Non ho mai sentito parlare di programmazione finché non sono arrivato all'università ed è troppo tardi. Molti miei colleghi provengono dalla Polonia: fin da piccoli hanno una fortissima attenzione per la matematica e per la programmazione”.
Cosa hai imparato sull’intelligenza artificiale che potremmo imparare anche noi?Ride. Resta in silenzio per quasi due minuti. Ci pensa. Poi scherza. “Il ragionamento è importante”. E dice: “Ci sono molti errori che noi esseri umani facciamo comunemente. A volte rispondiamo troppo in fretta, senza riflettere abbastanza. Oppure ci dimentichiamo un segno durante una moltiplicazione in colonna. Ecco, è interessante vedere che anche l’intelligenza artificiale fa errori quasi identici. Errori umani, molto diversi da quelli che facevano i computer in passato. Ma, come noi, anche le macchine migliorano con l’impegno. La cosa bella infatti è che il numero di errori diminuisce con la pratica, con l’applicazione, con il lavoro certosino. È qualcosa che forse dovremmo ricordarci: non apprezziamo abbastanza quanto si può imparare semplicemente decidendo di farlo. Con un’intelligenza artificiale il progresso si può misurare: lo puoi mettere su un grafico, contare il numero di errori per minuto, i problemi risolti in un’ora. E scopri passo dopo passo che l’apprendimento migliora. E porta lontano”.Rimettiamoci a studiare. Se non ora, quando?
La Repubblica