Al via le nuove regole Ue sui grandi modelli di IA

Condivisione di informazioni, rispetto del copyright e trasparenza: sono questi i nuovi obblighi che, da oggi, le società che sviluppano modelli di IA per finalità generali (Gpai) dovranno rispettare in Europa. A un anno dall’entrata in vigore dell’Artificial Intelligence Act, dopo i divieti per le pratiche di IA proibite e l’introduzione della formazione obbligatoria, è ora il turno delle regole sui grandi modelli di intelligenza artificiale.
Che cos’è un Gpai?Si tratta di modelli addestrati con grandi quantità di dati e capaci di svolgere un’ampia gamma di compiti, che spesso sono integrati in altri sistemi di IA. Nelle linee guida sui Gpai, la Commissione ha chiarito che un algoritmo rientra in questa categoria se è stato addestrato con risorse computazionali superiori a 10^23 FLOP ed è capace di generare linguaggio (sotto forma di testo o audio), immagini o video a partire da testo.
Il modello deve anche presentare una generalità significativa ed essere in grado di svolgere con competenza un’ampia gamma di compiti distinti. Rientrano quindi tra i Gpai i modelli linguistici addestrati con la potenza di calcolo indicata, non invece quelli progettati per giocare a scacchi e ai videogiochi o per aumentare la risoluzione delle foto.
Esistono poi i modelli a rischio sistemico, per i quali l’AI Act prevede obblighi ulteriori. Si tratta di algoritmi in grado di avere un impatto significativo sul mercato europeo. In questo caso la soglia da considerare è 10^25 FLOP e la Commissione ha il potere di designarli d’ufficio.
Gli obblighi di trasparenzaI fornitori sono innanzitutto tenuti a una maggiore trasparenza. L’AI Act impone infatti di redigere e conservare la documentazione tecnica relativa al modello, inclusi i dettagli del processo di addestramento, da consegnare alle autorità su richiesta.
Le società dovranno inoltre fornire informazioni e documentazione ai fornitori a valle – cioè a chi intende integrare un Gpai in un sistema di IA – per aiutarli a comprendere capacità e limiti del modello e a rispettare i propri obblighi di legge.
L’AI Act elenca le informazioni minime da raccogliere. Inoltre, con il codice di condotta sui Gpai è stato pubblicato un modello standard di facile utilizzo per adempire a questi requisiti.
La tutela del diritto d’autoreLa legge impone poi ai fornitori di attuare politiche efficaci per rispettare la normativa europea sul copyright, avvalendosi di tecnologie all’avanguardia per rilevare e rispettare le riserve di diritti.
Anche in questo caso il codice di condotta elenca una serie di soluzioni pratiche per soddisfare questo nuovo obbligo.
Report sul training del modelloLe società di IA devono anche pubblicare un riassunto sufficientemente dettagliato dei contenuti utilizzati per addestrare l’algoritmo. Per aiutare i fornitori ad adeguarsi, la Commissione ha pubblicato un modello che le aziende potranno usare come riferimento e che permetterà anche a cittadini e titolari dei diritti d’autore di informarsi e tutelarsi.
Le regole in caso di rischio sistemicoDa oggi occorre rispettare anche gli obblighi aggiuntivi per i modelli a rischio sistemico. I fornitori devono eseguire una valutazione del modello utilizzando protocolli standardizzati e strumenti all’avanguardia. Occorre inoltre valutare e mitigare i possibili rischi sistemici che possono derivare da questi modelli e segnalare alle autorità gli incidenti gravi.
A queste società viene inoltre richiesto di garantire un’adeguata protezione della cybersicurezza, sia per il modello che per la sua infrastruttura fisica, per prevenire furti, usi impropri o conseguenze diffuse derivanti da malfunzionamenti.
Il codice di condotta dedica un intero capitolo ai modelli di IA con rischio sistemico, elencando delle pratiche concrete per la gestione di questi rischi.
La Repubblica