Sprache auswählen

German

Down Icon

Land auswählen

Spain

Down Icon

Anthropic entzieht OpenAI den Zugriff auf Claude

Anthropic entzieht OpenAI den Zugriff auf Claude
OpenAI verlor diese Woche den Zugriff auf die Claude-API, nachdem Anthropic behauptete, das Unternehmen verstoße gegen seine Servicebedingungen.
Foto-Illustration: Wired Staff/Getty Images

Alle auf WIRED vorgestellten Produkte werden von unseren Redakteuren unabhängig ausgewählt. Wir erhalten jedoch möglicherweise eine Vergütung von Einzelhändlern und/oder für den Kauf von Produkten über diese Links.

Anthropic hat OpenAI am Dienstag den API-Zugriff auf seine Modelle entzogen , wie mehrere mit der Angelegenheit vertraute Quellen WIRED mitteilten. OpenAI wurde darüber informiert, dass der Zugriff aufgrund eines Verstoßes gegen die Nutzungsbedingungen gesperrt wurde.

„Claude Code ist für Programmierer weltweit zur ersten Wahl geworden, daher war es keine Überraschung, dass auch die technischen Mitarbeiter von OpenAI vor der Einführung von GPT-5 unsere Programmiertools nutzten“, sagte Anthropic-Sprecher Christopher Nulty in einer Erklärung gegenüber WIRED. „Leider stellt dies einen direkten Verstoß gegen unsere Nutzungsbedingungen dar.“

Gemäß den Geschäftsbedingungen von Anthropic ist es Kunden untersagt, den Dienst zu nutzen, um „ein konkurrierendes Produkt oder einen konkurrierenden Dienst zu entwickeln, einschließlich der Schulung konkurrierender KI-Modelle“ oder die Dienste „zurückzuentwickeln oder zu duplizieren“. Diese Änderung des Zugriffs von OpenAI auf Claude erfolgt, während der ChatGPT-Hersteller Berichten zufolge die Veröffentlichung eines neuen KI-Modells namens GPT-5 vorbereitet, das Gerüchten zufolge besser programmieren kann.

Quellen zufolge schloss OpenAI Claude über spezielle Entwicklerzugänge (APIs) an seine internen Tools an, anstatt die reguläre Chat-Schnittstelle zu verwenden. Dies ermöglichte es dem Unternehmen, Tests durchzuführen, um Claudes Fähigkeiten in Bereichen wie Programmieren und kreatives Schreiben anhand seiner eigenen KI-Modelle zu bewerten und zu überprüfen, wie Claude auf sicherheitsrelevante Eingabeaufforderungen in Kategorien wie CSAM, Selbstverletzung und Verleumdung reagierte. Die Ergebnisse helfen OpenAI, das Verhalten seiner eigenen Modelle unter ähnlichen Bedingungen zu vergleichen und bei Bedarf Anpassungen vorzunehmen.

„Es ist Industriestandard, andere KI-Systeme zu bewerten, um Fortschritte zu messen und die Sicherheit zu verbessern. Wir respektieren zwar die Entscheidung von Anthropic, uns den API-Zugriff zu sperren, aber es ist enttäuschend, wenn man bedenkt, dass unsere API ihnen weiterhin zur Verfügung steht“, sagte Hannah Wong, Chief Communications Officer von OpenAI, in einer Erklärung gegenüber WIRED.

Nulty sagt, Anthropic werde „weiterhin sicherstellen, dass OpenAI API-Zugriff für Benchmarking- und Sicherheitsevaluierungen erhält, wie es in der Branche üblich ist.“ Das Unternehmen reagierte nicht auf die Anfrage von WIRED um Klarstellung, ob und wie sich die aktuelle Claude-API-Einschränkung von OpenAI auf diese Arbeit auswirken würde.

Führende Technologieunternehmen entziehen ihren Konkurrenten den API-Zugriff. Das ist in der Branche seit Jahren eine gängige Taktik. Facebook machte dasselbe mit dem zu Twitter gehörenden Vine (was zu Vorwürfen wettbewerbswidrigen Verhaltens führte), und Salesforce schränkte im vergangenen Monat den Zugriff von Konkurrenten auf bestimmte Daten über die Slack-API ein. Für Anthropic ist das nicht einmal das erste Mal. Im vergangenen Monat schränkte das Unternehmen dem KI-Programmier-Startup Windsurf den direkten Zugriff auf seine Modelle ein, nachdem Gerüchte aufkamen, OpenAI würde das Unternehmen übernehmen. ( Der Deal platzte .)

Jared Kaplan, Chief Science Officer von Anthropic , sprach damals mit TechCrunch über die Sperrung des Zugriffs von Windsurf auf Claude und sagte: „Ich fände es seltsam, wenn wir Claude an OpenAI verkaufen würden.“

Einen Tag bevor Anthropic OpenAI den Zugriff auf die Claude-API sperrte, kündigte das Unternehmen neue Ratenbegrenzungen für Claude Code, sein KI-gestütztes Codierungstool, an und verwies dabei auf eine explosive Nutzung und in einigen Fällen auf Verstöße gegen die Servicebedingungen .

wired

wired

Ähnliche Nachrichten

Alle News
Animated ArrowAnimated ArrowAnimated Arrow