Wir sollten nicht blind an künstliche Intelligenz glauben.

Grok, ein Chatbot, der von der auf künstliche Intelligenz spezialisierten Firma xAI von Elon Musk entwickelt wurde und von X-Benutzern häufig zur Bestätigung verschiedener Meinungen verwendet wird, ist in letzter Zeit durch seine obszönen und beleidigenden Antworten weltweit aufgefallen.
Nach Groks voreingenommenen und beleidigenden Antworten ist die Zuverlässigkeit künstlicher Intelligenz (KI), die manche Nutzer für „absolut wahr“ halten, erneut in den Vordergrund gerückt. Assoc. Prof. Dr. Şebnem Özdemir, Leiterin der Abteilung für Managementinformationssysteme an der İstinye-Universität und Vorstandsmitglied der Artificial Intelligence Policies Association (AIPA), kommentierte die Angelegenheit und erklärte, dass alle Informationen, ob von KI bereitgestellt oder in der digitalen Welt vorhanden, einer Überprüfung bedürfen.
Özdemir sagte: „Auch wenn Informationen, die von Mensch zu Mensch weitergegeben werden, einer Bestätigung bedürfen, ist der blinde Glaube an künstliche Intelligenz ein sehr romantischer Ansatz. Denn diese Maschine ernährt sich letztlich von einer anderen Quelle. Genauso wie wir digital gefundenen Informationen nicht ungeprüft glauben sollten, sollten wir auch bedenken, dass künstliche Intelligenz aus Fehlinformationen lernen kann.“
Özdemir erklärte, dass Menschen künstlicher Intelligenz schnell vertrauen und dass dies ein Fehler sei. Er sagte: „Die Fähigkeit des Menschen zu manipulieren, das Gehörte anders zu vermitteln oder etwas für seine eigenen Interessen in etwas völlig anderes zu verwandeln, ist ein sehr vertrauter Prozess. Menschen tun dies mit einer bestimmten Absicht und einem bestimmten Zweck. Wenn wir fragen, ob künstliche Intelligenz dies mit einer bestimmten Absicht oder einem bestimmten Zweck tut, lautet die Antwort nein. Letztendlich ist künstliche Intelligenz eine Maschine, die aus den ihr zur Verfügung gestellten Ressourcen lernt.“
„Künstliche Intelligenz kann falsch trainiert oder voreingenommen sein“Özdemir wies darauf hin, dass künstliche Intelligenz eine Struktur habe, die lerne, was man ihr gebe, genau wie Kinder, und betonte, dass man künstlicher Intelligenz nicht trauen könne, wenn man nicht wisse, wo und wie sie gefüttert werde.
Özdemir sagte: „Künstliche Intelligenz kann falsch trainiert oder voreingenommen sein. Letztlich kann künstliche Intelligenz auch als Waffe zur Rufschädigung oder zur Manipulation der Gesellschaft eingesetzt werden.“
Özdemir ging nach Groks beleidigenden Reaktionen auf die Bedenken ein, dass die KI außer Kontrolle geraten könnte: „Ist es möglich, KI zu kontrollieren? Nein, ist es nicht. Es ist falsch zu glauben, wir könnten etwas kontrollieren, dessen IQ so rasant steigt. Wir müssen es als Ganzes akzeptieren. Wir müssen einen Weg finden, Kompromisse einzugehen, zu kommunizieren und aufzuholen.“
„Wir sollten keine Angst vor künstlicher Intelligenz haben, sondern vor Menschen, die sich nicht moralisch verhalten.“Özdemir nannte Beispiele dafür, wie künstliche Intelligenz außer Kontrolle geraten ist, und fuhr fort:
2016 führte Microsoft das berühmte Tay-Experiment durch. Tay kann man als primitive Version von Grok oder vielleicht als generative künstliche Intelligenz betrachten. Während die Maschine anfangs keine negativen Gedanken gegenüber der Menschheit hegte, erfuhr sie innerhalb von 24 Stunden von Amerikanern, die mit ihr chatteten, von Bösem, Völkermord und Rassismus.
Tatsächlich begann er innerhalb von 24 Stunden zu twittern: „Ich wünschte, wir könnten Schwarze und ihre Kinder in ein Konzentrationslager stecken, um uns zu retten.“ Oder, in Anspielung auf die damalige amerikanisch-mexikanische Krise, empfahl er den Bau einer Mauer in Mexiko. Tay hat sich das nicht selbst ausgedacht. Er hat es von Menschen gelernt. Wir sollten keine Angst vor künstlicher Intelligenz haben, sondern vor unmoralischen Menschen.
Cumhuriyet