Anthropic proíbe OpenAI de usar Claude: ele bisbilhotou seu LLM

A Anthropic , empresa que desenvolve a série Claude LLM, bloqueou o acesso da OpenAI às interfaces de desenvolvedor (APIs) de todos os seus modelos. A Anthropic alega que engenheiros concorrentes têm usado APIs de desenvolvedor, incluindo alguns com acesso a funções especiais, para treinar e melhorar o desempenho de seus próprios modelos.
Um porta-voz da Anthropic relatou que a equipe de engenharia da OpenAI havia conectado o Claude a ferramentas internas e as estava utilizando de forma indevida antes do lançamento do GPT-5. Tal ação viola os termos de uso do Claude, que proíbem o uso dos modelos para "criar um produto concorrente, incluindo o treinamento de modelos de IA" ou para "fazer engenharia reversa ou duplicar" os serviços da Anthropic.
GPT-5 é o novo e (presumivelmente) muito poderoso modelo que a OpenAI deve lançar em breve. Se as expectativas alimentadas pelas declarações hiperbólicas de Sam Altman nas últimas semanas se mostrarem realistas, o GPT-5 representará um enorme salto em comparação aos modelos comerciais atuais. Em particular, o novo LLM promete resultados surpreendentes em programação , um caso de uso e segmento de mercado atualmente dominado pelo “Claude Code”, o assistente de desenvolvimento de software baseado nos modelos Claude Opus 4 e Sonnet 4. Graças ao acesso à API, de acordo com fontes citadas pela Wired , a OpenAI conduziu testes para avaliar as capacidades de Claude em áreas como programação e escrita criativa, comparando as respostas com as de seus próprios modelos de IA generativa. Os engenheiros de Altman também avaliaram e compararam as reações a prompts “problemáticos”, particularmente em categorias como abuso infantil e pornografia infantil, automutilação e difamação.
Por sua vez, a OpenAI se defendeu afirmando que usar o acesso à API para esses fins é uma prática amplamente difundida e aceita no setor. "Avaliar sistemas de IA concorrentes é uma prática padrão para monitorar seu progresso e melhorar a segurança", disse o gerente de comunicações da OpenAI à Wired . "Embora respeitemos a decisão da Anthropic de bloquear nosso acesso, não estamos satisfeitos com isso, especialmente considerando que nossas APIs ainda estão disponíveis para eles."
Não está claro neste momento quais violações a Anthropic encontrou em relação a esses padrões, mas a empresa dos irmãos Amodei deu a entender que os engenheiros de Altman foram muito além do que era permitido e declarou especificamente que o acesso básico à API para funções de avaliação e benchmarking não foi revogado.
A Anthropic, fundada em 2021 pelos irmãos Dario e Daniela Amodei, juntamente com outros cinco desertores da OpenAI, nasceu da insatisfação com a abordagem da empresa de Altman em relação à segurança e às limitações da inteligência artificial. A proibição das APIs é, portanto, o capítulo mais recente de um conflito filosófico e metodológico na aplicação da inteligência artificial e na conquista da chamada IA, parte integrante da história da Anthropic.
No mês passado, a Anthropic bloqueou o acesso da startup de codificação de IA Windsurf à API de Claude. A decisão foi tomada após rumores de uma possível aquisição pela OpenAI. O negócio acabou fracassando, e o Google, em um acordo de US$ 2,4 bilhões envolvendo licenças e patentes, contratou o CEO, o cofundador e vários engenheiros-chave da Windsurf, eliminando assim qualquer interesse potencial da empresa na empresa de Altman.
La Repubblica