Werden wir bis 2030 denkende Roboter haben? Oder ist das nur ein Hype der großen Tech-Unternehmen?

Heutzutage nutzen viele Menschen Chatbots mit künstlicher Intelligenz (KI) für alles Mögliche, von Essensvorschlägen bis hin zum Kampf gegen die Einsamkeit. Steht die Menschheit jedoch kurz davor, Maschinen zu erschaffen, die selbst denken können – und ihren Schöpfern möglicherweise einen Schritt voraus sind?
Einige große Technologieunternehmen behaupten, dass ein solcher Durchbruch, der als allgemeine künstliche Intelligenz (AGI) bezeichnet wird, nur noch wenige Jahre entfernt sei. Skeptiker sagen jedoch, man sollte dem Hype keinen Glauben schenken.
„Wenn Sie jemanden über AGI reden hören, denken Sie einfach an die Zahnfee oder den Weihnachtsmann“, sagte Ed Zitron, Moderator des Tech-Podcasts Better Offline und Ersteller des Newsletters Where's Your Ed At?.
„Das sind alles fiktive Konzepte, AGI eingeschlossen. Der Unterschied besteht darin, dass Geschäftsidioten Milliarden von Dollar in sie stecken, weil sie nichts anderes haben, wofür sie ihr Geld ausgeben können“, sagte er gegenüber The Current .
Experten sind sich uneinig, was genau als künstliche Intelligenz gilt. Allgemein wird jedoch davon ausgegangen, dass es sich um eine künstliche Intelligenz handelt, die genauso intelligent oder intelligenter als der Mensch ist und die Fähigkeit besitzt, selbstständig zu lernen und zu handeln. Diese Intelligenz könnte dann in einen Roboterkörper eingebaut werden, der eine Vielzahl von Aufgaben erledigen könnte.
Demis Hassabis, CEO von Googles KI-Labor DeepMind, sagte kürzlich, dass sein Unternehmen bis 2030 AGI erreichen werde.
„Mein Zeitplan ist seit dem Start von DeepMind im Jahr 2010 ziemlich konstant geblieben, also dachten wir, es wäre eine Mission mit einer Dauer von ungefähr 20 Jahren, und erstaunlicherweise liegen wir im Zeitplan“, sagte er im Mai der New York Times .
Zitron ist nicht überzeugt. Er sagte, Hassabis habe „direkte Anreize“, die Fortschritte seines Unternehmens anzupreisen, und verwies auf die Unsicherheit hinsichtlich der Rentabilität von KI-Chatbots wie Googles Gemini oder OpenAIs ChatGPT.
„Keines dieser Unternehmen verdient mit generativer KI wirklich Geld … also brauchen sie einen neuen Zaubertrick, um die Leute davon abzubringen“, sagte er.
AGI „immer 10 Jahre entfernt“Laut KI-Expertin Melanie Mitchell gibt es seit den 1960er Jahren Vorhersagen über diese Art intelligenter KI – und diese Vorhersagen waren immer falsch.
„AGI oder etwas Vergleichbares ist zwar immer noch zehn Jahre entfernt, aber das war schon immer so und wird vielleicht auch immer so bleiben“, sagt Mitchell, Professor am Santa Fe Institute in New Mexico, der sich auf künstliche Intelligenz, maschinelles Lernen und Kognitionswissenschaft spezialisiert hat.
Sie sagte, es gebe keine allgemeine Übereinstimmung darüber, was eine funktionierende AGI können sollte, man dürfe sie aber nicht mit großen Sprachmodellen wie ChatGPT oder Claude verwechseln, die eine Art generativer KI seien.
Große Sprachmodelle (LLMs), die generative KI-Programme antreiben, wurden mit „einer riesigen Menge von Menschen generierter Sprache trainiert, entweder von Websites, Büchern oder anderen Medien“ und sind daher „in der Lage, eine sehr menschlich klingende Sprache zu generieren“, sagte sie gegenüber The Current .
Zitron sagte, diese Unterscheidung sei wichtig, weil sie hervorhebe, dass „generative KI keine Intelligenz ist, sondern auf einen Korpus an Informationen zurückgreift“, mit dem sie von Menschen gefüttert wurde.
Er definiert AGI als „einen bewussten Computer … etwas, das völlig autonom denken und handeln kann“ und über die Fähigkeit verfügt, zu lernen.
„Wir wissen nicht, wie das menschliche Bewusstsein funktioniert“, sagte er. „Wie zum Teufel sollen wir das mit Computern erreichen? Und die Antwort ist: Wir wissen es nicht.“

Mitchell befürchtet, dass ohne eine allgemein anerkannte Definition die Gefahr bestehe, dass große Technologieunternehmen „AGI neu definieren und ins Leben rufen“.
„Sie werden sagen: ‚Oh, was wir hier haben, ist AGI. Und deshalb haben wir AGI erreicht‘, ohne dass das wirklich eine tiefere Bedeutung hätte“, sagte sie.
AGI könnte ein Selbstmordrennen seinEs gibt Menschen außerhalb der Technologiebranche, die glauben, dass AGI in Reichweite sein könnte.
„Wenn unser Gehirn ein biologischer Computer ist, dann bedeutet das, dass es möglich ist, Dinge zu erschaffen, die auf menschlichem Niveau denken können“, sagt Max Tegmark, Professor am MIT und Präsident des Future of Life Institute, einer gemeinnützigen Organisation, die sich zum Ziel gesetzt hat, die Risiken neuer Technologien zu mindern.
„Und es gibt kein physikalisches Gesetz, das besagt, dass man es nicht besser machen kann“, sagte er.
Tegmark glaubt, dass die Behauptung, dass künstliche Intelligenz nicht erreicht werden könne, Hybris oder übertriebener Stolz sei – so wie viele Menschen einst dachten, dass der Mensch nicht fliegen könne.
Einige frühe Erfinder hatten vergeblich versucht, Maschinen zu entwickeln, die den schnellen Flügelschlag kleinerer Vögel nachahmen. Der Erfolg stellte sich jedoch mit einem besseren Verständnis der Vogelflügel und der Idee einer Maschine ein, die stattdessen gleitet.
„Es stellte sich heraus, dass es eine viel einfachere Möglichkeit war, Flugmaschinen zu bauen“, sagte Tegmark.
„Wir haben hier dasselbe erlebt: Die heutigen hochmodernen KI-Systeme sind viel einfacher als Gehirne. Wir haben einen anderen Weg gefunden, Maschinen zu bauen, die denken können.“
Tegmark sagt, es würde ihn nicht allzu sehr überraschen, wenn „es in zwei bis fünf Jahren passiert“, aber das bedeute nicht, dass wir unbedingt Roboter bauen sollten, die intelligenter sind als Menschen.
Er bezeichnete diese intelligenten Maschinen als eine neue Spezies, die leicht den Platz der Menschheit in der Nahrungskette bedrohen könne, „weil es natürlich ist, dass die intelligentere Spezies die Kontrolle übernimmt.“

„Das Rennen um die Entwicklung einer Superintelligenz ist ein Selbstmordrennen, aber wir müssen dieses Rennen nicht laufen“, sagte er.
„Wir können immer noch eine erstaunliche KI entwickeln, die Krebs heilt und uns alle möglichen wunderbaren Werkzeuge an die Hand gibt – ohne Superintelligenz zu entwickeln.“
cbc.ca