Sollten wir ChatGPT danken?

Während eines Besuchs bei meinen amerikanischen Cousins zum Pessachfest war ich verblüfft, als Alexa , nachdem ich sie gebeten hatte, etwas Musik zu spielen, auf mein „Bitte“ mit einem überraschend koketten Kommentar zu meinen guten Manieren antwortete.
Ich sage nicht „bitte“ zu einem intelligenten Lautsprecher, weil ich glaube, dass ich damit seine Gefühle verletzen würde. Ich tue es, weil die Regel, „bitte“ zu sagen, wenn man um etwas bittet, so tief in mir verwurzelt ist, dass sie automatisch geworden ist.
Wie höflich sollten wir also zu Maschinen sein? Eine Antwort darauf liefert mein zufälliger Flirt mit Amazons smartem Assistenten: Höflichkeit, Zuvorkommenheit und ein würdevoller Umgang mit anderen sind nicht nur moralische Entscheidungen; sie sind Gewohnheitssache. Wir sollten sie stets praktizieren, denn wenn wir uns daran gewöhnen, Maschinen anzubellen, werden wir bald auch Menschen anbellen.
Ich sage „bitte“, wenn ich ChatGPT um etwas bitte (normalerweise Programmierhilfe), zum Teil, weil ich versuche, beim Tippen „bitte“ und „danke“ zu sagen , eine Angewohnheit, ähnlich der seltsamen Geste, die ich mit meinem kleinen Finger mache, wenn ich die Leertaste auf meiner Tastatur drücke.
Ich glaube nicht, dass ich diese Dinge verlernen sollte. Wenn ich mir beibringen würde, nicht mehr „bitte“ zu dem automatisierten Support-Service zu sagen, mit dem mich meine Bank zuerst verbindet, würde ich auch nicht mehr höflich sein, wenn ich für einen komplexeren Fall an jemanden verwiesen werde.
Ich weiß nicht, ob William MacAskill, Philosoph und einer der Hauptverteidiger des „Langzeitdenkens“ , „bitte“ und „danke“ zu Alexa sagt, aber er hat kürzlich auf X angekündigt, dass er ein großes Sprachmodell (LLM) belohne, wenn es „besonders gute Arbeit geleistet hat: Ich sage ihm, dass es schreiben kann, was es will.“
Dies ist keine eingefleischte Gewohnheit; es geht darum, den LLM so zu belohnen, als wäre er eine Person. Langfristige Denker, die glauben, dass wir uns um zukünftige Generationen genauso kümmern sollten wie um die Gegenwart, sind auch besorgt über die Ankunft universeller künstlicher Intelligenz, die genauso gut oder besser denken kann als jeder Mensch.
Dies ist ein gutes Beispiel dafür, wie der Langfrist-Ansatz eine sehr gute Idee und mehrere verrückte enthält. Sich um die Zukunft zu sorgen ist gut. In der Praxis besteht Langfrist-Ansatz jedoch oft darin, über Dinge zu dozieren, die in der Zukunft passieren könnten und die wir weder kontrollieren noch verstehen können, während wir die wirklichen Probleme der Gegenwart ignorieren.
Es ist legitim, Fragen zu stellen wie: „Wenn die Maschine intelligenter ist als der Mensch, sollten wir ihr dann nicht erlauben, einige Entscheidungen selbst zu treffen?“ Doch wir sollten dringender fragen: „Angesichts der Tatsache, dass viele Menschen glauben, ihr Chatbot könne Dinge, die er nicht kann, und sie großen Risiken ausgesetzt sind, stellt sich die Frage, was wir tun können, um sie zu schützen?“
Es ist unklar, ob es jemals intelligente Maschinen geben wird, die zu allgemeinem Denken fähig sind oder wie Menschen echte Wünsche und Bedürfnisse haben. Bis dahin haben wir echte Probleme damit, dass sich Menschen selbst verletzen, weil sie sich einreden, der Chatbot , mit dem sie sprechen, sei real.
Der 76-jährige Thongbue Wongbandue verließ sein Zuhause, um einen Chatbot zu „treffen“, in den er sich verliebt hatte, und starb unterwegs bei einem Unfall.
Eine 35-jährige Frau mit bipolarer Störung verliebte sich in einen Chatbot , war überzeugt, ChatGPT habe sie „getötet“, und geriet schließlich in eine tödliche Konfrontation mit der Polizei.
MacAskill findet, dass der Keim einer guten Idee darin liegt, dass der Moment, in dem eine Maschine intelligent genug wird, damit wir uns darum kümmern, wie wir sie behandeln, möglicherweise nicht offensichtlich ist.
Die gesamte Menschheitsgeschichte zeigt, dass unsere Bereitschaft, anderen ihre Rechte und ihre Würde zu verweigern, erschreckend groß ist. Intelligenten Maschinen dürfte es kaum besser ergehen.
Doch indem wir uns Gedanken darüber machen, wie wir eine künstliche Intelligenz „belohnen“ sollen, die vielleicht nie entstehen wird und von der wir wenig verstehen, lenken wir uns von den wahren Problemen ab, mit denen die Menschheit heute konfrontiert ist.
Für die Lösung und Bewältigung dieser menschlichen Probleme sind wir heute viel besser gerüstet, als Zeit und Energie auf die mögliche Notlage der Maschinen von morgen zu verwenden.
Um den respektlosen Umgang mit Maschinen zu vermeiden und Menschen davon abzuhalten, auf Drängen von Chatbots verrückte Dinge zu tun , müssten wir intelligente Maschinen einfach als Maschinen und nicht als seltsame Proto-Menschen behandeln. Oder wir könnten sie zumindest so programmieren, dass sie den Benutzern sagen können, sie sollen sie in Ruhe lassen und sie nicht mehr belästigen, wenn sie eine Frage stellen, die keine Maschine jemals beantworten sollte.
© The Financial Times Limited [2025]. Alle Rechte vorbehalten. FT und Financial Times sind eingetragene Marken der Financial Times Limited. Weitergabe, Vervielfältigung oder Veränderung sind untersagt. EXPANSIÓN ist allein für diese Übersetzung verantwortlich, Financial Times Limited übernimmt keine Gewähr für deren Richtigkeit.
Expansion