Le Big Tech divise sul futuro dell'intelligenza artificiale

Sulla copertina del loro piano aziendale per DeepMind , il laboratorio di intelligenza artificiale (IA) fondato nel 2010 da Demis Hassabis, Mustafa Suleyman e Shane Legg , hanno scritto una sola frase: "Creare la prima intelligenza artificiale generale al mondo".
La sua opinione, che rimane valida ancora oggi, è che le tecnologie di intelligenza artificiale tradizionali fossero troppo "limitate". Potevano funzionare brillantemente, ma solo dopo che gli esseri umani le avevano laboriosamente addestrate utilizzando database di grandi dimensioni. Questo rendeva l'intelligenza artificiale eccellente in compiti come l'analisi di fogli di calcolo o il gioco degli scacchi. Ma l'intelligenza artificiale generale, nota come AGI , aveva il potenziale per spingersi ancora oltre.
Quindici anni dopo, i CEO del settore tecnologico sono convinti che l'IA sia la prossima grande novità e ne elogiano il potenziale. Tra questi c'è Sam Altman , CEO di OpenAI . Secondo lui, "l'IA potrebbe aiutare l'umanità a crescere, aumentare l'abbondanza, accelerare l'economia globale e contribuire alla scoperta di nuove conoscenze scientifiche".
Hassabis, la cui azienda DeepMind si è fusa con Google diventando uno dei laboratori di intelligenza artificiale più influenti al mondo, sostiene che l'intelligenza artificiale ha il potenziale per risolvere problemi globali come la cura di malattie, l'aiuto alle persone per vivere una vita più sana e lunga e la scoperta di nuove fonti di energia.
Dario Amodei, CEO di Anthropic , che preferisce usare l'espressione "intelligenza artificiale di potenza" per descrivere l'AGI, ritiene che sarà probabilmente "più intelligente di un premio Nobel nel suo campo più rilevante" e l'ha descritta come una "nazione geniale in un data center".
Yann LeCun, capo scienziato dell'intelligenza artificiale di Meta e considerato uno dei "padrini" della tecnologia, preferisce usare il termine superintelligenza artificiale (ASI) , poiché l'intelligenza umana non è poi così generale: "Siamo molto specializzati e i computer possono risolvere determinati compiti molto meglio di noi".
Mancanza di consensoA prescindere dal termine scelto, si parla sempre più di una tecnologia che un tempo era pura fantascienza e che ora potrebbe diventare realtà. Ma proprio come nella Silicon Valley non si riesce a trovare un accordo su cosa siano esattamente AGI o SIA, non c'è consenso su come sarà se e quando diventerà realtà.
Quando DeepMind coniò il termine, dichiarò che l'AGI era "un'IA almeno altrettanto capace di un adulto esperto nella maggior parte dei compiti cognitivi". Ma questa definizione solleva ulteriori interrogativi: cos'è un adulto esperto? Come facciamo a sapere quando abbiamo completato la maggior parte dei compiti cognitivi? Quali sono questi compiti?
"Per alcuni, l'intelligenza artificiale globale (AGI) è un obiettivo scientifico. Per altri, è una religione. E per altri ancora, è un termine di marketing", osserva François Chollet, ex ingegnere informatico di Google. Di conseguenza, ci sono ampie stime su quando potrebbe arrivare. Elon Musk ritiene che una tecnologia di intelligenza artificiale più intelligente degli esseri umani diventerà realtà quest'anno. Amodei di Anthropic fissa la data al 2026. E Altman, che ritiene che arriverà durante la presidenza di Donald Trump.
OpenAI e Anthropic hanno raccolto miliardi di dollari dagli investitori per sviluppare la tecnologia e sono sostenute dai piani della Casa Bianca di bloccare la regolamentazione dell'intelligenza artificiale per rimanere un passo avanti alla Cina. OpenAI gode anche del sostegno di Trump per gli investimenti in data center negli Stati Uniti e in Medio Oriente.
Nel primo trimestre del 2025, IAG è stata menzionata il 53% in più nelle presentazioni degli utili aziendali rispetto allo stesso periodo dell'anno precedente.
Ma definirlo è fondamentale per comprenderne le implicazioni e se debba essere considerato una priorità o meno.
L'UE non ha escluso la sospensione della sua legge sull'intelligenza artificiale, in parte per timore di ostacolarne lo sviluppo. L'Artificial Intelligence Security Institute del Regno Unito sta cercando di capire cos'è l'intelligenza artificiale per pianificare la sua politica di sicurezza e la sua ricerca.
Anche nella sua definizione più ampia, l'intelligenza artificiale globale (AGI) accelererebbe notevolmente l'elaborazione dei dati, ma a un costo finanziario e ambientale molto elevato. E se gli ingegneri riuscissero a creare la tecnologia, come possiamo garantire che venga utilizzata in modo equo e corretto?
Cos'è realmente l'IAG?Per OpenAI, si tratta di una tecnologia che può essere utilizzata per svolgere attività che portano benefici economici. "Stiamo cercando di sviluppare un sistema altamente autonomo in grado di superare gli esseri umani in molti compiti di valore economico", afferma Mark Chen, direttore della ricerca dell'azienda. Secondo lui, una caratteristica fondamentale è la generalità, la capacità di svolgere compiti in un'ampia varietà di settori: "Dovrebbe essere abbastanza autonomo e non necessitare di molto aiuto per svolgere i suoi compiti. L'intelligenza artificiale sarà in grado di dare rapidamente vita a ciò che abbiamo in testa e ha il potenziale per aiutare le persone a creare non solo immagini o testo, ma intere applicazioni".
Ma i critici sostengono che questa definizione non basti a descrivere un sistema veramente intelligente. "Questa è solo automazione , qualcosa che facciamo da decenni", afferma Chollet, ex ingegnere di Google.
Legg di DeepMind ha un'opinione diversa: "Credo che le prestazioni umane tipiche siano il modo più naturale, pratico e utile per definire i requisiti minimi affinché un'IA possa essere considerata un'AGI. Un grosso problema con molte definizioni di AGI è che non specificano con sufficiente chiarezza cosa un sistema di IA deve essere in grado di fare per essere considerato un'AGI".
Per DeepMind, deve essere "capace quanto un adulto esperto nello svolgere la maggior parte dei compiti cognitivi. Se le persone riescono a svolgere regolarmente un compito cognitivo, allora l'intelligenza artificiale deve essere in grado di farlo per essere un'IA", osserva Legg.
Il laboratorio di proprietà di Google ha stabilito cinque livelli di capacità dell'IA. Modelli di IA come ChatGPT di OpenAI, Gemini di Google e Llama di Meta raggiungerebbero solo il livello uno, o "IA emergente". Finora, nessun modello generale ha raggiunto il livello due , che gli consentirebbe di superare almeno il 50° percentile degli adulti qualificati, afferma Allan Dafoe, direttore della sicurezza e della governance delle frontiere di DeepMind.
Il terzo livello richiederebbe che il modello fosse valido almeno quanto il 90° percentile degli adulti qualificati, il quarto livello richiederebbe il 99° percentile e il quinto livello, l'intelligenza artificiale sovrumana, supererebbe il 100% degli esseri umani.
Qual è la tabella di marcia?Se non c'è accordo sull'obiettivo, non c'è da stupirsi che esistano numerose teorie sul percorso migliore per l'IA. OpenAI e Anthropic sostengono che i modelli linguistici che stanno creando rappresentino la strada migliore. La loro idea è che più dati e potenza di calcolo vengono forniti al modello, più "intelligente" sarà.
La startup dietro ChatGPT ha appena presentato il suo nuovo modello di "ragionamento", o3, che risolve compiti di codifica, matematica e riconoscimento delle immagini più complessi. Alcuni esperti, come l'economista Tyler Cowen, ritengono che questa sia la tecnologia più vicina all'intelligenza artificiale (AGI).
Per Chen, il prossimo passo verso l'intelligenza artificiale sarebbe creare modelli in grado di agire in modo indipendente e affidabile. Gli strumenti di intelligenza artificiale potrebbero quindi produrre innovazione e, in ultima analisi, agire come organizzazioni simili a grandi strutture di esseri umani che lavorano insieme.
Un'altra caratteristica fondamentale è l'auto-miglioramento . "È un sistema che può migliorarsi, scrivere il proprio codice e generare la versione successiva di se stesso , il che lo rende ancora migliore", aggiunge Chen. Ma i critici affermano che i modelli linguistici presentano innumerevoli debolezze. Sono ancora molto imprecisi, si inventano tutto e non "pensano" veramente, limitandosi a prevedere la prossima parola probabile in una frase.
Secondo un articolo molto discusso dei ricercatori Apple, la nuova generazione di modelli di ragionamento crea semplicemente l'illusione di pensare e la loro accuratezza diminuisce significativamente quando vengono presentati compiti complessi. Alcuni esperti sostengono inoltre che il linguaggio da solo non può catturare tutte le dimensioni dell'intelligenza e che è necessario sviluppare modelli più ampi per incorporare più dimensioni.
LeCun di Meta sta creando "modelli del mondo", che tentano di incapsulare la fisica del nostro mondo imparando da video e dati robotici, piuttosto che dal linguaggio. Sostiene che abbiamo bisogno di una comprensione più olistica del mondo per creare un'intelligenza artificiale superiore.
Possibili problemiL'industria dell'intelligenza artificiale sta esaurendo i dati, avendone ottenuti la maggior parte da Internet. Nonostante ciò, Altman ha dichiarato a dicembre che "l'intelligenza artificiale diventerà realtà prima di quanto si pensi, e avrà un'importanza molto minore di quanto si pensi. Il nostro prossimo obiettivo è preparare OpenAI per ciò che verrà dopo: la superintelligenza".
Secondo i critici di IAG, questa diversità di opinioni evidenzia le vere motivazioni delle aziende. Nick Frost , co-fondatore della startup di intelligenza artificiale Cohere , ritiene che "IAG sia principalmente una bolla che sta raccogliendo capitali da questa idea". E Antoine Moyroud, partner di Lightspeed Ventures, una società di venture capital che ha investito in aziende come Anthropic e Mistral, osserva che "con IAG, gli investitori non solo sperano in centinaia di milioni di dollari di fatturato, ma anche nella prospettiva di trasformare il modo in cui generiamo il PIL, generando potenzialmente migliaia di miliardi di dollari di risultati. Ecco perché le persone sono disposte a correre il rischio con IAG".
Altri problemiSempre più persone si rivolgono ai chatbot di intelligenza artificiale per amicizia, compagnia e persino terapia . Ma questo è possibile solo grazie all'enorme quantità di lavoro umano che permette ai chatbot di intelligenza artificiale di apparire più intelligenti, o più reattivi, di quanto non siano in realtà.
Alcuni si chiedono se l'intelligenza artificiale (AGI) sarà una buona cosa. "Biologia, psicologia e istruzione non hanno ancora compreso appieno l'intelligenza", afferma Margaret Mitchell, direttrice etica dell'azienda di intelligenza artificiale open source Hugging Face e coautrice di un articolo in cui si sostiene che l'AGI non dovrebbe essere considerata una stella polare. Gli esperti affermano che questa spinta a sviluppare un certo tipo di tecnologia concentra potere e ricchezza in una piccola minoranza di persone e sfrutta artisti e creatori la cui proprietà intellettuale finisce in enormi set di dati senza il loro consenso e senza alcun compenso.
L'AGI ha anche un impatto ambientale enorme, poiché modelli sempre più potenti richiedono tonnellate di acqua ed energia per l'addestramento e il funzionamento in enormi data center. Aumenta anche il consumo di prodotti altamente inquinanti, come petrolio e gas.
Solleva inoltre questioni etiche e potenziali danni sociali. Nella corsa allo sviluppo della tecnologia e al beneficio economico, i governi stanno trascurando le normative che fornirebbero tutele di base contro le tecnologie di intelligenza artificiale, come pregiudizi algoritmici e discriminazioni.
Esiste anche una minoranza influente, tra cui ricercatori considerati i padri fondatori dell'intelligenza artificiale moderna, come Yoshua Bengio e Geoffrey Hinton, che avverte che, se non tenuta sotto controllo, l'intelligenza artificiale potrebbe portare all'estinzione della razza umana.
Uno dei pericoli dell'idea dell'"intelligenza artificiale a tutti i costi" è che può alimentare una scienza scadente , afferma Mitchell. Altre discipline più consolidate, come la chimica e la fisica, dispongono di metodi scientifici che consentono test rigorosi. Ma l'informatica è un campo molto più recente e più incentrato sull'ingegneria, con la tendenza a fare "affermazioni meravigliose e generalizzate che non sono effettivamente supportate dalla ricerca". E Frosst di Cohere avverte che "politici e aziende hanno la responsabilità di riflettere sui rischi reali delle tecnologie potenti".
Ma la creazione di metodi affidabili per misurare e valutare le tecnologie di intelligenza artificiale nel mondo reale è ostacolata dall'ossessione del settore per l'intelligenza artificiale. "Finché non raggiungeremo questo obiettivo, l'intelligenza artificiale non sarà altro che un'illusione e una parola d'ordine", conclude Mitchell.
© The Financial Times Limited [2025]. Tutti i diritti riservati. FT e Financial Times sono marchi registrati di Financial Times Limited. La ridistribuzione, la copia o la modifica sono vietate. EXPANSIÓN è l'unica responsabile di questa traduzione e Financial Times Limited non è responsabile della sua accuratezza.
Expansion