Al via la conferenza mondiale della Association for Computational Linguistics. Navigli: «Ecco le prossime sfide per l’IA»


Nel mondo dell’intelligenza artificiale, le novità si susseguono a ritmo incalzante e la profondità delle innovazioni è tale da sfidare la capacità interpretativa degli osservatori. Il rapporto tra la ricerca scientifica e le applicazioni industriali è strettissimo. E tutto il progresso degli ultimi tempi è scaturito dalla ricerca sul trattamento del linguaggio. Per questi motivi, la conferenza mondiale annuale della Association for Computational Linguistics è un appuntamento da non perdere. Raduna più di seimila ricercatori da tutto il mondo: presentano le loro scoperte che potrebbero diventare tecnologie di punta. Quest’anno, è stato chiamato a presiedere la conferenza Roberto Navigli, docente di Natural Language Processing alla Sapienza di Roma. Da un anno, Navigli lavora alla progettazione dell’evento e la sua guida è preziosa per comprendere quali sono le filiere di ricerca più promettenti, i problemi più grandi, le speranze più solide.

«Una prima osservazione si impone» dice Navigli. «Considerando il primo autore dei paper presentati alla conferenza, l’anno scorso il 31% erano cinesi e il 29% erano statunitensi. Quest’anno il 50% sono cinesi e il 14% sono americani». Perché? Due ipotesi. La prima è che i cinesi stanno investendo sempre più nella formazione di giovani ricercatori, mentre gli americani stanno investendo più in tecnologia. La seconda, forse più interessante, è che i ricercatori americani si trovano sempre più spesso a lavorare in contesti aziendali dove le pubblicazioni scientifiche non sono una priorità. Molte aziende, infatti, preferiscono mantenere riservate le loro ricerche per salvaguardare il vantaggio competitivo.
Del resto, le grandi narrazioni propagandistiche proposte dalle mega aziende che hanno conquistato l’attenzione globale con i loro prodotti, a partire dal novembre del 2022 con l’uscita di ChatGPT di OpenAI, possono dare l’impressione che tutto sia di fatto già deciso. Se si seguono quelle narrazioni ci si convince che chi ha più soldi per comprare capacità di calcolo è destinato a vincere la corsa per costruire intelligenze artificiali vicine alle capacità cognitive degli umani. In realtà, il processo non sarà lineare. E con ogni probabilità saranno necessari grandi balzi scientifici. Il che implica che i risultati non sono certi.
Alla conferenza sarà trattata come tema centrale la capacità dei modelli di generalizzare. Navigli la spiega così: «Il caso dell’algebra è emblematico. I modelli attuali sono in grado di eseguire calcoli perché apprendono da una vasta quantità di esempi precedentemente elaborati, ma non possiedono una vera comprensione della matematica sottostante e dei suoi princìpi. In altre parole, sono dei fantastici “pappagalli stocastici” che non sanno generalizzare per eseguire calcoli che non hanno mai incontrato prima». E Navigli precisa: «Questi modelli non sanno ragionare come gli esseri umani, non sono in grado di astrarre o di imparare dall’esperienza. Si limitano a fare correlazioni estremamente potenti tra grandi volumi di dati e a rielaborarli efficacemente». La capacità di generalizzare, infatti, richiederà un progresso scientifico significativo. Questo salto sarà fondamentale per migliorare l’affidabilità, la robustezza e la coerenza dei modelli.

Esistono numerose altre frontiere. L’intelligenza artificiale fisica, che sa prendere decisioni in base a flussi di dati che non si limitano al linguaggio ma che provengono da sensori, telecamere e radar, per guidare robot o auto senza pilota, richiede salti scientifici importanti. «È il tema dei modelli multimodali. Che sanno costruire una rappresentazione della realtà a tre dimensioni e prendere decisioni nello spazio. Qui c’è molta strada da fare». Allo stesso modo, resta difficile affrontare con successo il tema delle allucinazioni: «Questi modelli hanno un’incontrollabile tendenza a rispondere su tutto. Non sanno dire “non lo so”. È un problema che non ha una soluzione facile in vista». Navigli aggiunge poi che ha voluto reintrodurre un focus specifico sull’intelligenza artificiale industriale e sulle nuove proposte scientifiche provenienti da aziende. «Da questo punto di vista, l’Europa dimostra di portare avanti un approccio molto diverso da quello americano», dice Navigli. Che, con il suo team alla Sapienza, ha realizzato Minerva: «È il primo modello allenato in lingua italiana e concepito nello spirito europeo: Minerva è un modello aperto e lo resterà per sempre, non è affamato di energia elettrica, ed è trasparente sui dati che utilizza. In questo modo, può essere facilmente adattato: è possibile modificarlo cambiando i dati, aggiungendone di nuovi o rimuovendone alcuni». Questo approccio, inoltre, lo rende più rapido e affidabile. La strada è ancora lunga per i modelli europei, ma è aperta.
Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.
Iscrivitiilsole24ore