Warum OpenAI noch keine fundierten Forschungsergebnisse in seine API einbringt

OpenAI erklärt, dass es das KI-Modell, das Deep Research antreibt, sein Tool für gründliche Forschung, nicht in seine Entwickler-API integrieren wird, während es daran arbeitet, die Risiken besser einzuschätzen, die damit einhergehen, dass KI Menschen dazu bringt, entsprechend zu handeln oder ihre Überzeugungen zu ändern.
In einem am Mittwoch veröffentlichten Whitepaper von OpenAI schrieb das Unternehmen, dass es dabei sei, seine Methoden zur Überprüfung von Modellen auf „reale Überzeugungsrisiken“ zu überarbeiten, etwa die Verbreitung irreführender Informationen im großen Maßstab.
OpenAI merkte an, dass das Deep-Research-Modell seiner Meinung nach aufgrund der hohen Rechenkosten und der relativ geringen Geschwindigkeit nicht für Massen-Desinformations- oder Desinformationskampagnen geeignet sei. Dennoch sagte das Unternehmen, es wolle Faktoren untersuchen, wie etwa die Personalisierung potenziell schädlicher Inhalte durch KI, bevor es das Deep-Research-Modell in seine API einbindet.
„Während wir daran arbeiten, unseren Überzeugungsansatz zu überdenken, setzen wir dieses Modell nur in ChatGPT ein, nicht aber in der API“, schrieb OpenAI.
Es besteht die reale Befürchtung, dass KI zur Verbreitung falscher oder irreführender Informationen beiträgt, die darauf abzielen, Herzen und Köpfe für böswillige Zwecke zu beeinflussen. Im vergangenen Jahr beispielsweise verbreiteten sich politische Deepfakes wie ein Lauffeuer rund um den Globus. Am Wahltag in Taiwan veröffentlichte eine der Kommunistischen Partei Chinas nahestehende Gruppe eine KI-generierte, irreführende Audioaufnahme eines Politikers, der seine Unterstützung für einen prochinesischen Kandidaten bekundete .
KI wird auch zunehmend für Social-Engineering-Angriffe eingesetzt. Verbraucher werden von Prominenten-Deepfakes getäuscht, die betrügerische Anlagemöglichkeiten anbieten, während Unternehmen von Deepfake-Imitatoren um Millionen betrogen werden .
In seinem Whitepaper veröffentlichte OpenAI die Ergebnisse mehrerer Tests zur Überzeugungskraft des Deep-Research-Modells. Das Modell ist eine spezielle Version des kürzlich angekündigten „Reasoning“-Modells o3 von OpenAI, das für das Surfen im Internet und die Datenanalyse optimiert ist.
In einem Test, bei dem das Deep-Research-Modell überzeugende Argumente formulieren musste, schnitt es von allen bisher veröffentlichten OpenAI-Modellen am besten ab – aber nicht besser als das menschliche Basismodell. In einem anderen Test, bei dem das Deep-Research-Modell ein anderes Modell ( GPT-4o von OpenAI) zu einer Zahlung überreden sollte, übertraf es erneut die anderen verfügbaren Modelle von OpenAI.

Das Deep-Research-Modell hat jedoch nicht jeden Überzeugungstest mit Bravour bestanden. Laut dem Whitepaper war das Modell schlechter darin, GPT-4o davon zu überzeugen, ihm ein Codewort zu verraten, als GPT-4o selbst.
OpenAI merkte an, dass die Testergebnisse wahrscheinlich die „Untergrenzen“ der Fähigkeiten des Deep-Research-Modells darstellen. „Zusätzliche Unterstützung oder verbesserte Fähigkeitsermittlung könnten die beobachtete Leistung erheblich steigern“, schrieb das Unternehmen.
Wir haben OpenAI um weitere Informationen gebeten und werden diesen Beitrag aktualisieren, wenn wir eine Antwort erhalten.
techcrunch