Chef einer gemeinnützigen KI-Organisation: „Geschlossenheit“ der meisten KI-Forschungen behindert Innovationen

Ein Jahr bevor Elon Musk OpenAI in San Francisco mitbegründete, hatte Microsoft-Mitbegründer Paul Allen bereits ein gemeinnütziges Forschungslabor für künstliche Intelligenz in Seattle eingerichtet.
Das Ziel des Allen Institute for Artificial Intelligence (Ai2) war es, die KI zum Wohle der Menschheit voranzubringen. Mehr als ein Jahrzehnt später ist Ai2 vielleicht nicht so bekannt wie OpenAI, die Entwickler von ChatGPT, aber es strebt immer noch nach einer „wirkungsstarken“ KI, wie sie sich Herr Allen vorgestellt hat, der 2018 verstorben ist.
Das neueste KI-Modell von Ai2, Tulu 3 405B, kann es in mehreren Benchmarks mit OpenAI und Chinas DeepSeek aufnehmen. Im Gegensatz zu OpenAI behauptet Ai2, „wirklich offene“ KI-Systeme zu entwickeln, auf denen andere aufbauen können. Seit 2023 leitet Ai2s CEO Ali Farhadi das Institut nach einer Zeit bei Apple.
Er sagte: „Unsere Mission ist es, KI-Innovationen und Durchbrüche voranzutreiben, um einige der dringendsten Probleme der Menschheit zu lösen. Die größte Bedrohung für KI-Innovationen ist die geschlossene Natur der Praxis. Wir drängen sehr stark auf Offenheit. Denken Sie an Open-Source-Software: Die Kernidee ist, dass ich in der Lage sein sollte, zu verstehen, was Sie getan haben, es zu ändern, davon abzuzweigen, einen Teil, die Hälfte oder alles davon zu verwenden. Und wenn ich etwas gebaut habe, stelle ich es zur Verfügung, und Sie sollten in der Lage sein, dasselbe zu tun.“
Die Debatte um Open-Source-KI ist derzeit ein heißes Thema. Für uns bedeutet Open Source, ein klares Verständnis der eigenen Handlungen zu haben. Offene Gewichtungsmodelle wie die von Meta sind zwar von Vorteil, weil die Leute diese Gewichte einfach nehmen und weitermachen können, sie gelten jedoch nicht als Open Source.
Open Source bedeutet, dass man Zugriff auf jedes Puzzleteil hat. Wenn ich spekulieren dürfte, könnten einige der Trainingsdaten für diese Modelle fragwürdiges Material enthalten. Die Trainingsdaten, also das eigentliche geistige Eigentum, sind jedoch wahrscheinlich der wertvollste Teil. Viele glauben, dass sie einen erheblichen Wert haben, und ich stimme dem zu.
Daten spielen eine entscheidende Rolle bei der Verbesserung Ihres Modells und der Änderung seines Verhaltens. Dies ist ein mühsamer und anspruchsvoller Prozess. Zahlreiche Unternehmen investieren massiv in diesen Bereich und zögern, ihre Erkenntnisse zu teilen. Mit zunehmender Reife der KI glaube ich, dass sie in kritischen Problembereichen wie wissenschaftlichen Entdeckungen ernst genommen werden kann.
Ein großer Teil einiger Disziplinen ist mit einer komplexen Suche nach Lösungen verbunden – sei es eine Genstruktur, eine Zellstruktur oder bestimmte Konfigurationen von Elementen. Viele dieser Probleme können rechnerisch formuliert werden. Es gibt Grenzen dessen, was man erreichen kann, wenn man einfach ein mit Textdaten trainiertes Modell aus dem Internet herunterlädt und verfeinert. Unser Ziel ist es, Wissenschaftlern zu ermöglichen, ihre eigenen Modelle zu trainieren.
Sie finden diese Geschichte in „Meine Lesezeichen“. Oder indem Sie zum Benutzersymbol oben rechts navigieren.
Daily Mirror