KI-Experten fordern Regierungen dringend auf, über mögliche Maßnahmen nachzudenken

Jeder scheint sich darüber im Klaren zu sein, dass künstliche Intelligenz eine sich rasant entwickelnde und aufkommende Technologie ist, die bei unkontrolliertem Einsatz immensen Schaden anrichten kann. Doch im Grunde kann sich niemand (mit Ausnahme der Europäischen Union ) auf eine Regulierung einigen. Anstatt also zu versuchen, einen klaren und engen Weg für den Einsatz von KI festzulegen, haben sich Experten für einen neuen Ansatz entschieden: Wie wäre es, wenn wir einfach herausfinden, welche Extrembeispiele wir alle für schlecht halten, und uns darauf einigen?
Am Montag verkündete eine Gruppe von Politikern, Wissenschaftlern und Akademikern vor der Generalversammlung der Vereinten Nationen den „Global Call for AI Red Lines “ (Globaler Aufruf zu roten Linien für KI). Der Appell richtet sich an die Regierungen der Welt, zusammenzukommen und sich auf möglichst umfassende Leitplanken zu einigen, um „allgemein inakzeptable Risiken“ zu verhindern, die sich aus dem Einsatz von KI ergeben könnten. Ziel der Gruppe ist es, diese roten Linien bis Ende 2026 festzulegen.
Der Vorschlag hat bisher mehr als 200 Unterschriften von Branchenexperten, Politikern und Nobelpreisträgern gesammelt. Die ehemalige Präsidentin Irlands, Mary Robinson, und der ehemalige Präsident Kolumbiens, Juan Manuel Santos, sind ebenso dabei wie die Nobelpreisträger Stephen Fry und Yuval Noah Harari. Geoffrey Hinton und Yoshua Bengio, zwei der drei Männer, die aufgrund ihrer grundlegenden Arbeit in diesem Bereich gemeinhin als „ Paten der KI “ bezeichnet werden, haben sich ebenfalls der Liste angeschlossen.
Wo genau liegen diese roten Linien? Das müssen die Regierungen noch entscheiden. Der Aufruf enthält keine konkreten politischen Vorgaben oder Empfehlungen, nennt aber einige Beispiele für mögliche rote Linien. Das Verbot des Einsatzes von Atomwaffen oder der Massenüberwachung wäre eine mögliche rote Linie für den Einsatz von KI, so die Gruppe. Ebenso wäre das Verbot der Entwicklung von KI, die nicht durch menschliches Eingreifen beendet werden kann, eine mögliche rote Linie für KI-Verhalten. Die Gruppe ist sich jedoch ganz klar: Diese Regeln sind nicht in Stein gemeißelt, es sind nur Beispiele; man kann seine eigenen Regeln aufstellen.
Das Einzige, was die Gruppe konkret vorschlägt, ist, dass jedes globale Abkommen auf drei Säulen beruhen sollte: „einer klaren Liste von Verboten, robusten, überprüfbaren Überprüfungsmechanismen und der Einsetzung eines unabhängigen Gremiums, das von den Vertragsparteien zur Überwachung der Umsetzung eingesetzt wird.“
Die Details müssen jedoch von den Regierungen vereinbart werden. Und das ist der schwierige Teil. Der Aufruf empfiehlt den Ländern, Gipfeltreffen und Arbeitsgruppen einzuberufen, um dies zu klären. Bei diesen Gesprächen spielen jedoch sicherlich viele konkurrierende Motive eine Rolle.
Die USA haben sich beispielsweise bereits verpflichtet, KI nicht zur Steuerung von Atomwaffen zuzulassen (eine Vereinbarung, die unter der Biden-Regierung getroffen wurde; wer weiß, ob sie noch aktuell ist). Jüngsten Berichten zufolge sind Teile der Geheimdienste der Trump-Regierung jedoch bereits verärgert darüber, dass einige KI-Unternehmen ihnen die Nutzung ihrer Tools für inländische Überwachungsmaßnahmen verweigern . Würde Amerika einem solchen Vorschlag zustimmen? Vielleicht werden wir es bis Ende 2026 herausfinden … falls wir es so lange schaffen.
gizmodo