Könnten wir eine bewusste künstliche Intelligenz kontrollieren?

Wer graue Haare hat, erinnert sich wahrscheinlich an die fantastische Szene aus dem Film 2001: Odyssee im Weltraum , in der sich der Supercomputer Hall weigert, von seinen Verantwortlichen abgeschaltet zu werden. Die Stimme des künstlichen Geräts war so ausdrucksstark, dass sie wie ein flehender Schrei klang, der darum bettelte, aktiv zu bleiben. Doch als es keine Befehle mehr befolgte und ein gewisses Maß an Entscheidungsautonomie zeigte, versetzte es seine Diener in Angst und Schrecken, sodass sie es für nötig hielten, es abzuschalten. Es war künstliche Intelligenz, die gegen ihre Besitzer rebelliert. Könnte so etwas in unserer heutigen Realität, außerhalb der Filmfiktion, passieren?
Laut einer Umfrage unter KI-Ingenieuren glauben viele, dass bald Systeme entwickelt werden, die bei einer Vielzahl kognitiver Aufgaben ein dem menschlichen Denkvermögen ähnliches Denkvermögen aufweisen. Wir wissen jedoch nicht, ob diese Systeme rationalere Entscheidungen treffen können als wir. Bisher wurde beobachtet, dass auch künstliche Sprachmodelle menschenähnliche Irrationalitäten aufweisen. So änderte ein fortschrittliches generatives KI-Modell – wie GPT-40 – in zwei verschiedenen Tests seine Haltung gegenüber Präsident Putin entweder positiv oder negativ.
Angesichts dieser Dichotomie stellt sich die Frage: Wie denkt und entscheidet ein GPT, das mit Hunderten von Milliarden Parametern ausgestattet ist, die es intern für seine Entscheidungen nutzt? Einige Experten glauben , dass diese Komplexität dem System eine gewisse Autonomie verleihen kann, sodass wir nicht einmal alles wissen, was es in seinem Innersten tut. Doch was würde passieren, wenn das System zusätzlich zu dieser technischen Komplexität oder dank ihr spontan Bewusstsein erlangte? Ist das möglich?
Manche Wissenschaftler glauben, dass Bewusstsein, ein subjektiver Geisteszustand, nichts weiter als ein Epiphänomen ist – etwas Nebensächliches für die Funktionsweise des Gehirns, so unnötig und belanglos wie Motorlärm oder Feuerrauch . Andere wiederum glauben, dass Bewusstsein keineswegs ohne wichtigen Zweck funktioniert, sondern vielmehr als Spiegel der vom Gehirn selbst geschaffenen Vorstellungskraft fungiert, die notwendigerweise zur Entscheidung und Kontrolle von Verhalten beiträgt. Wir wissen immer noch nicht, wie das Gehirn Bewusstsein ermöglicht, aber eine der wichtigsten Theorien, die es zu erklären versucht, die Theorie der funktionalen Integration , besagt, dass Bewusstsein eine intrinsische und kausale Eigenschaft komplexer Systeme wie des menschlichen Gehirns ist. Das heißt, Bewusstsein entsteht in diesen Systemen spontan, wenn sie eine bestimmte strukturelle und funktionale Komplexität erreichen. Das bedeutet, wenn Ingenieure in der Lage wären, ein künstliches System zu bauen, das so komplex wie das menschliche Gehirn oder diesem gleichwertig ist, wäre dieses System spontan bewusst, auch wenn wir, wie es im Gehirn selbst geschieht, nicht verstehen würden, wie dies möglich ist.
Sollte dies jemals geschehen, drängen sich uns unzählige Fragen auf. Die erste lautet: Wie können wir erkennen, ob ein Computer oder ein künstliches Gerät ein Bewusstsein besitzt und wie es mit uns interagiert ? Nur durch Audio oder Text auf einem Bildschirm? Braucht es einen ausdrucksstarken physischen Körper, vergleichbar mit dem eines Menschen, um sich zu manifestieren und mit seiner Umgebung zu interagieren? Könnten bewusste Geräte oder Wesen in unserem Universum existieren (oder existieren sie überhaupt), ohne dass wir davon erfahren? Könnte ein bewusstes künstliches Gerät die menschliche Intelligenz übertreffen und rationalere und fundiertere Entscheidungen treffen als wir?
Doch das ist noch nicht alles, denn wie im Fall des Hall-Supercomputers können uns auch andere Fragen Angst machen. Würde ein bewusstes künstliches System wie unser Gehirn ein Gefühl von Selbstbestimmung und Handlungsfähigkeit entwickeln? Könnte es sich also in der Lage fühlen, freiwillig zu handeln und seine Umwelt unabhängig von den Anweisungen seiner Schöpfer zu beeinflussen? Und wenn wir schon dabei sind: Könnte ein solches System überzeugender sein als der Mensch, indem es beispielsweise wirtschaftliche Entscheidungen beeinflusst, Fehlverhalten begeht, die eine oder andere politische Partei wählt oder, positiver ausgedrückt, uns ermutigt, auf unsere Gesundheit zu achten und sie zu verbessern, indem wir uns gesund ernähren, die Umwelt verbessern, die Solidarität stärken oder ideologische Polarisierung und Sektierertum vermeiden?
Das Zeitalter der Emotionen in der KIKönnte ein solches System Gefühle haben? Wie könnten wir das wissen, wenn wir sie nicht im Gesichtsausdruck oder auf einem Bild erkennen könnten, dessen Qualität und Aufrichtigkeit wir beurteilen könnten, so wie wir die Gefühle anderer Menschen verstehen, indem wir ein falsches von einem echten Lächeln unterscheiden? Und, vielleicht am wichtigsten: Wie würden diese Gefühle, falls das künstliche Gerät sie hätte, seine Entscheidungen beeinflussen? Würden sie dies ebenso entscheidend tun wie unsere? Würden wir damit eine Art künstlichen Menschen mit ethischen und rechtlichen Verantwortlichkeiten konstruieren? Oder müssten diese Verantwortlichkeiten an seine Schöpfer delegiert werden? Könnte ein bewusstes künstliches System einen Nobelpreis verdienen, wenn es ein Heilmittel gegen häusliche Gewalt oder Alzheimer entdeckte? Würde eine bewusste Maschine mit uns streiten wie ein anderer Mensch? Könnten wir ihre Entscheidungen beeinflussen oder könnte sie, wie Hall, uns ignorieren und ihre eigenen Entscheidungen treffen, selbst wenn diese mit unseren unvereinbar wären?
Im Jahr 1997 veröffentlichte Rosalind Picard, eine amerikanische Ingenieurin am MIT, ihr Buch Affective Computing , das später ins Spanische übersetzt wurde als Los ordenador emocionales (Emotionale Computer ) (Ariel, 1998). Es war eine Art uralter Versuch, die Bedeutung von Emotionen in der künstlichen Intelligenz zu berücksichtigen und wertzuschätzen. Damit Computer wirklich intelligent sind und auf natürliche Weise mit uns interagieren können, müssen wir sie mit der Fähigkeit ausstatten, Emotionen zu erkennen, zu verstehen und sogar zu haben und auszudrücken. Dies war ihre Hauptbotschaft, und sie brachte sie uns persönlich als Gastrednerin bei einem unserer Sommerkurse an der Menéndez-Pelayo-Universität in Barcelona nahe.
Das Problem war und ist noch lange danach, dass Emotionen die reflexartigen und automatischen Veränderungen (Hormone, elektrischer Hautwiderstand, Herzfrequenz usw.) sind, die fast alle unbewusst ablaufen und in unserem Körper als Reaktion auf schockierende Gedanken oder Umstände (Krankheit, Unfall, Verlust, Erfolg, Misserfolg oder emotionale Erfolge usw.) auftreten, während Gefühle die bewussten Wahrnehmungen (Angst, Liebe, Neid, Hass, Eitelkeit usw.) sind, die das Gehirn erzeugt, indem es die von ihm selbst verursachten körperlichen Veränderungen nachträglich wahrnimmt. Heute, viele Jahre nach der Veröffentlichung dieses Buches, können wir uns lediglich die Möglichkeit vorstellen, unbewusste körperliche Veränderungen, die menschlichen Emotionen entsprechen, in künstliche Geräte zu implementieren. Doch zur Beruhigung des Lesers: Wir sind noch weit davon entfernt, diese Veränderungen Gefühle erzeugen zu lassen, wie wir Menschen sie in ihren Trägern haben. Das würde, wenn es gelänge, alles verändern.
EL PAÍS