Anthropic revoca l'accesso di OpenAI a Claude

Tutti i prodotti presenti su WIRED sono selezionati in modo indipendente dai nostri redattori. Tuttavia, potremmo ricevere compensi dai rivenditori e/o dagli acquisti di prodotti tramite questi link.
Martedì Anthropic ha revocato a OpenAI l'accesso API ai suoi modelli, secondo quanto riferito a WIRED da diverse fonti a conoscenza della questione. OpenAI è stata informata che il suo accesso è stato interrotto a causa della violazione dei termini di servizio.
"Claude Code è diventato il punto di riferimento per i programmatori di tutto il mondo, quindi non è stata una sorpresa scoprire che anche lo staff tecnico di OpenAI utilizzava i nostri strumenti di programmazione prima del lancio di GPT-5", ha dichiarato Christopher Nulty, portavoce di Anthropic, in una dichiarazione a WIRED. "Purtroppo, questa è una violazione diretta dei nostri termini di servizio".
Secondo i termini di servizio commerciali di Anthropic, ai clienti è vietato utilizzare il servizio per "creare un prodotto o servizio concorrente, incluso l'addestramento di modelli di intelligenza artificiale concorrenti" o "sottoporre a reverse engineering o duplicazione" i servizi. Questa modifica all'accesso di OpenAI a Claude arriva mentre il creatore di ChatGPT si starebbe preparando a rilasciare un nuovo modello di intelligenza artificiale, GPT-5, che si dice sia più performante in termini di programmazione.
Secondo alcune fonti, OpenAI stava integrando Claude nei propri strumenti interni tramite speciali API (Accesso Sviluppatori), anziché tramite la normale interfaccia di chat. Ciò ha permesso all'azienda di eseguire test per valutare le capacità di Claude in ambiti come la programmazione e la scrittura creativa, confrontandole con i propri modelli di intelligenza artificiale, e di verificare come Claude rispondeva a richieste di sicurezza relative a categorie come pedopornografia, autolesionismo e diffamazione, affermano le fonti. I risultati aiutano OpenAI a confrontare il comportamento dei propri modelli in condizioni simili e ad apportare le modifiche necessarie.
"È prassi del settore valutare altri sistemi di intelligenza artificiale per valutare i progressi e migliorare la sicurezza. Pur rispettando la decisione di Anthropic di interrompere l'accesso alla nostra API, siamo delusi considerando che la nostra API rimane a loro disposizione", ha dichiarato Hannah Wong, responsabile delle comunicazioni di OpenAI, in una dichiarazione a WIRED.
Nulty afferma che Anthropic "continuerà a garantire che OpenAI abbia accesso all'API per scopi di benchmarking e valutazioni di sicurezza, come da prassi standard nel settore". L'azienda non ha risposto alla richiesta di WIRED di chiarimenti su se e in che modo l'attuale restrizione dell'API Claude di OpenAI avrebbe avuto un impatto su questo lavoro.
Le principali aziende tecnologiche che sottraggono l'accesso alle API ai concorrenti sono una tattica che si ripete da anni nel settore tecnologico. Facebook ha fatto lo stesso con Vine, di proprietà di Twitter (il che ha portato ad accuse di comportamento anticoncorrenziale) e il mese scorso Salesforce ha impedito ai concorrenti di accedere a determinati dati tramite l'API di Slack. Non è nemmeno la prima volta per Anthropic. Il mese scorso, l'azienda ha limitato l'accesso diretto della startup di programmazione AI Windsurf ai suoi modelli dopo che si vociferava che OpenAI fosse pronta ad acquisirla. ( L'accordo è poi fallito ).
Jared Kaplan, responsabile scientifico di Anthropic, all'epoca parlò a TechCrunch della revoca dell'accesso di Windsurf a Claude, affermando: "Penso che sarebbe strano per noi vendere Claude a OpenAI".
Un giorno prima di interrompere l'accesso di OpenAI all'API di Claude, Anthropic ha annunciato nuovi limiti di velocità su Claude Code, il suo strumento di codifica basato sull'intelligenza artificiale, citando un utilizzo eccessivo e, in alcuni casi, violazioni dei suoi termini di servizio .
wired