La visione di Singapore sulla sicurezza dell'intelligenza artificiale colma il divario tra Stati Uniti e Cina

Il governo di Singapore ha pubblicato oggi un progetto per la collaborazione globale sulla sicurezza dell'intelligenza artificiale , a seguito di un incontro tra ricercatori di intelligenza artificiale provenienti da Stati Uniti, Cina ed Europa. Il documento delinea una visione condivisa per lavorare sulla sicurezza dell'intelligenza artificiale attraverso la cooperazione internazionale, piuttosto che la competizione.
"Singapore è uno dei pochi paesi al mondo che va d'accordo sia con l'Oriente che con l'Occidente", afferma Max Tegmark, uno scienziato del MIT che ha contribuito a convocare l'incontro dei luminari dell'IA il mese scorso. "Sanno che non costruiranno [l'intelligenza artificiale generale] da soli, ma che la faranno da soli, quindi è nel loro interesse che i paesi che la costruiranno comunichino tra loro".
I paesi che si ritiene più propensi a costruire un'intelligenza artificiale intelligente (AGI) sono, ovviamente, Stati Uniti e Cina, eppure sembrano più intenzionati a superarsi a vicenda che a collaborare. A gennaio, dopo che la startup cinese DeepSeek ha rilasciato un modello all'avanguardia , il presidente Trump lo ha definito "un campanello d'allarme per le nostre industrie" e ha affermato che gli Stati Uniti dovevano "concentrarsi al massimo sulla competizione per vincere".
Il Singapore Consensus sulle priorità di ricerca sulla sicurezza dell'intelligenza artificiale a livello globale invita i ricercatori a collaborare in tre aree chiave: studiare i rischi posti dai modelli di intelligenza artificiale all'avanguardia, esplorare modi più sicuri per costruire tali modelli e sviluppare metodi per controllare il comportamento dei sistemi di intelligenza artificiale più avanzati.
Il consenso è stato raggiunto durante un incontro tenutosi il 26 aprile in concomitanza con la Conferenza internazionale sulle rappresentazioni dell'apprendimento (ICLR), un importante evento sull'intelligenza artificiale tenutosi quest'anno a Singapore.
All'evento sulla sicurezza dell'IA hanno partecipato ricercatori di OpenAI, Anthropic, Google DeepMind, xAI e Meta, oltre a docenti universitari di istituzioni come il MIT, Stanford, Tsinghua e l'Accademia Cinese delle Scienze. Hanno partecipato anche esperti di istituti per la sicurezza dell'IA di Stati Uniti, Regno Unito, Francia, Canada, Cina, Giappone e Corea.
"In un'epoca di frammentazione geopolitica, questa sintesi completa della ricerca all'avanguardia sulla sicurezza dell'intelligenza artificiale è un segnale promettente che la comunità globale si sta unendo con un impegno condiviso per dare forma a un futuro più sicuro per l'intelligenza artificiale", ha affermato in una nota Xue Lan, preside della Tsinghua University.
Lo sviluppo di modelli di intelligenza artificiale sempre più performanti, alcuni dei quali dotati di capacità sorprendenti, ha portato i ricercatori a preoccuparsi di una serie di rischi. Mentre alcuni si concentrano sui danni a breve termine, inclusi i problemi causati da sistemi di intelligenza artificiale distorti o il potenziale sfruttamento della tecnologia da parte di criminali , un numero significativo di persone ritiene che l'intelligenza artificiale possa rappresentare una minaccia esistenziale per l'umanità, poiché inizia a superare in astuzia gli esseri umani in più ambiti. Questi ricercatori, a volte definiti "sventurati dell'intelligenza artificiale", temono che i modelli possano ingannare e manipolare gli esseri umani per perseguire i propri obiettivi.
Il potenziale dell'IA ha anche alimentato il dibattito su una corsa agli armamenti tra Stati Uniti, Cina e altre nazioni potenti. La tecnologia è considerata dagli ambienti politici fondamentale per la prosperità economica e il predominio militare, e molti governi hanno cercato di definire le proprie visioni e normative per disciplinarne lo sviluppo.
Il debutto di DeepSeek a gennaio ha aggravato i timori che la Cina possa raggiungere o addirittura superare gli Stati Uniti, nonostante gli sforzi per limitare l'accesso cinese all'hardware di intelligenza artificiale attraverso controlli sulle esportazioni. Ora, l'amministrazione Trump sta valutando ulteriori misure volte a limitare la capacità della Cina di sviluppare un'intelligenza artificiale all'avanguardia.
L'amministrazione Trump ha anche cercato di minimizzare i rischi dell'IA a favore di un approccio più aggressivo allo sviluppo della tecnologia negli Stati Uniti. In un importante convegno sull'IA tenutosi a Parigi nel 2025, il vicepresidente J.D. Vance ha affermato che il governo statunitense desiderava minori restrizioni allo sviluppo e all'implementazione dell'IA, e ha descritto l'approccio precedente come "troppo avverso al rischio".
Tegmark, scienziato del MIT, afferma che alcuni ricercatori di intelligenza artificiale sono desiderosi di "invertire un po' la rotta dopo Parigi" riportando l'attenzione sui potenziali rischi posti da un'intelligenza artificiale sempre più potente.
All'incontro di Singapore, Tegmark ha presentato un documento tecnico che metteva in discussione alcune ipotesi su come l'IA possa essere sviluppata in modo sicuro. Alcuni ricercatori avevano precedentemente ipotizzato che fosse possibile controllare modelli di IA potenti utilizzando modelli più deboli. Il documento di Tegmark mostra che questa dinamica non funziona in alcuni scenari semplici , il che significa che potrebbe non riuscire a impedire che i modelli di IA vadano a rotoli.
"Abbiamo fatto del nostro meglio per dare un senso a tutto questo, ma tecnicamente non funziona come si vorrebbe", dice Tegmark. "E, sapete, la posta in gioco è piuttosto alta."
wired