OpenAI lancia una nuova iniziativa per la sicurezza dell'IA

OpenAI ha introdotto una nuova risorsa online, il "Safety Evaluations Hub", con l'obiettivo di condividere pubblicamente dati e approfondimenti sulle performance di sicurezza dei suoi modelli di intelligenza artificiale. Questa iniziativa mira a fornire trasparenza su aspetti cruciali come i tassi di allucinazioni dei modelli, la loro tendenza a generare contenuti dannosi, l'accuratezza con cui seguono le istruzioni e la loro resilienza ai tentativi di violazione. L'azienda sottolinea che questo nuovo hub rappresenta un passo avanti verso una maggiore apertura, in un momento in cui si trova ad affrontare diverse sfide legali, incluse quelle per presunto utilizzo illecito di materiale protetto da copyright per addestrare i propri modelli. Il "Safety Evaluations Hub" è concepito per espandere le informazioni già disponibili nelle schede di sistema di OpenAI. Mentre queste offrono un'istantanea delle misure di sicurezza di un modello al momento del lancio, l'hub è progettato per fornire aggiornamenti continui. In una nota ufficiale, OpenAI ha dichiarato di voler 'condividere i progressi nello sviluppo per misurare la capacità e la sicurezza dei modelli'. L'intento è duplice: da un lato facilitare la comprensione delle prestazioni dei sistemi e dall'altro aumentare gli sforzi collettivi per incrementare la trasparenza nel settore. L'azienda ha anche espresso l'intenzione di lavorare per una comunicazione più proattiva in questo ambito a tutti i livelli. All'interno dell'hub, gli utenti interessati possono esplorare diverse sezioni dedicate, trovando informazioni pertinenti per vari modelli, da Gpt-4.1 fino alle versioni più recenti, come la 4.5.
ansa