L’Europa presenta il Codice di Condotta sull’IA Generativa

La Commissione Europea ha pubblicato oggi la versione finale del Codice di Condotta per l’Intelligenza Artificiale di uso generale (“General-Purpose AI Code of Practice”). Si tratta di uno strumento volontario, elaborato da 13 esperti indipendenti e modellato grazie al contributo di oltre 1.000 stakeholder: sviluppatori di modelli, PMI, accademici, esperti di sicurezza, detentori di diritti e organizzazioni della società civile.
Il Codice nasce per supportare l’industria nell’allineamento con le regole previste dal nuovo AI Act, la prima legislazione al mondo pensata per regolare lo sviluppo e l’uso dell’intelligenza artificiale in base ai livelli di rischio. In particolare, questo Codice si concentra sui modelli di IA general-purpose, cioè quei modelli di base, come GPT, Claude o LLaMA, che possono essere impiegati per un’ampia varietà di compiti e applicazioni.
Il regolamento entrerà in vigore il 2 agosto 2025, ma sarà pienamente applicabile solo dal 2026 per i nuovi modelli e dal 2027 per quelli già esistenti. Il Codice di Condotta offre una guida anticipata per agevolare l’adeguamento alle nuove norme, riducendo nel contempo l’onere amministrativo per chi deciderà di adottarlo.
Tre capitoliIl documento si articola in tre capitoli principali, ciascuno con un focus specifico:
Trasparenza. Prevede un Model Documentation Form, un modulo standardizzato e user-friendly per raccogliere tutte le informazioni essenziali sul modello (dati di addestramento, capacità, limitazioni, impieghi previsti). È pensato per rendere il comportamento dei modelli AI più comprensibile e verificabile, facilitandone l’integrazione nei prodotti e servizi digitali.
Copyright. Fornisce linee guida pratiche per conformarsi alla normativa europea sul diritto d’autore, un tema particolarmente spinoso in ambito AI generativa. La Commissione spinge affinché i provider adottino policy attive per identificare e rispettare i contenuti protetti utilizzati durante l’addestramento.
Sicurezza e gestione dei rischi. Riguarda solo i modelli più avanzati, quelli che potrebbero comportare rischi sistemici. Tra questi, vi sono il potenziale uso per la creazione di armi chimiche o biologiche, o la perdita di controllo da parte degli sviluppatori. In linea con l’AI Act, il Codice propone pratiche all’avanguardia per l’identificazione e mitigazione di tali rischi.
Verso l’adozioneIl Codice dovrà ora essere formalmente approvato dagli Stati membri e dalla Commissione. Una volta approvato, i provider che decideranno di sottoscriverlo potranno dimostrare più facilmente la conformità al regolamento, beneficiando di maggiore certezza giuridica e procedure semplificate.
Parallelamente, la Commissione pubblicherà a breve delle linee guida ufficiali per chiarire chi è soggetto alle regole dell’AI Act, in particolare in ambito general-purpose. Questo aiuterà le aziende a determinare se, e come, devono conformarsi. Intanto, ecco le domande e le risposte della UE.
Un passo verso la “sovranità tecnologica”Henna Virkkunen, vicepresidente esecutiva per la Sovranità Tecnologica, Sicurezza e Democrazia, ha commentato: “La pubblicazione del Codice rappresenta un passo fondamentale per rendere i modelli di AI avanzata non solo innovativi, ma anche sicuri e trasparenti. Co-progettato con gli stakeholder, risponde alle loro esigenze. Invito tutti i provider a sottoscriverlo per intraprendere un percorso chiaro e collaborativo verso la conformità all’AI Act.” La mossa della Commissione si inserisce in un più ampio dibattito internazionale su come regolamentare l’intelligenza artificiale. Mentre gli Stati Uniti lavorano a quadri normativi frammentari e la Cina adotta un approccio centralizzato e statalista, l’Unione Europea si conferma pioniera di una via normativa “basata sul rischio”, orientata a proteggere i diritti fondamentali senza ostacolare l’innovazione.
La Repubblica