Auspacken von KI-Agenten

In den letzten sechs Monaten haben OpenAI, Anthropic, Google und andere Webbrowser-Agenten veröffentlicht, die Aufgaben selbstständig und mit minimalem menschlichen Input erledigen. OpenAI-CEO Sam Altman bezeichnete KI- Agenten sogar als „den nächsten großen Durchbruch“. In der heutigen Folge untersuchen wir, was diese Agenten von anderen Formen maschineller Intelligenz unterscheidet und ob ihre Fähigkeiten dem Hype gerecht werden.
Sie können Michael Calore auf Bluesky unter @snackfight , Lauren Goode auf Bluesky unter @laurengoode und Will Knight auf Bluesky unter @willknight folgen. Schreiben Sie uns an [email protected] .
So hören Sie zuSie können den Podcast dieser Woche jederzeit über den Audioplayer auf dieser Seite anhören. Wenn Sie ihn jedoch kostenlos abonnieren möchten, um alle Folgen zu erhalten, gehen Sie wie folgt vor:
Wenn Sie ein iPhone oder iPad verwenden, öffnen Sie die Podcasts-App oder tippen Sie einfach auf diesen Link . Sie können auch Apps wie Overcast oder Pocket Casts herunterladen und nach „Uncanny Valley“ suchen. Wir sind auch auf Spotify .
TranskriptHinweis: Dies ist eine automatisierte Abschrift, die Fehler enthalten kann.
Michael Calore: Hallo, hier ist Mike. Bevor wir anfangen, möchte ich Sie daran erinnern, dass wir gerne von Ihnen hören. Haben Sie Fragen zu KI, Politik oder Datenschutz, die Ihnen auf der Seele brennen? Oder einfach ein Thema, das wir Ihrer Meinung nach in der Sendung besprechen sollten? Dann schreiben Sie uns an [email protected] . Wenn Ihnen unsere Folgen gefallen, bewerten Sie die Sendung bitte und hinterlassen Sie eine Rezension in Ihrer bevorzugten Podcast-App. So finden andere uns leichter. Hallo zusammen, wie geht es Ihnen?
Lauren Goode: Mir geht es gut. Ich halte durch. Wie geht es dir, Mike?
Michael Calore: Mir geht es super. Ich fühle mich gut. Diese Woche haben wir Will Knight in der Show.
Lauren Goode: Ja, das freut mich sehr. Ich vermisse Katie, aber wir wissen, dass Katie auf der Suche nach mehr französischer Butter ist. Sie ist buchstäblich nach Frankreich gefahren.
Michael Calore: Ich glaube, Will, du hast uns ein Croissant mitgebracht, oder nicht?
Will Knight: Das habe ich. Ja, ganz sicher. Frisch gebacken.
Lauren Goode: Vielen Dank dafür. Sie können jetzt in der Sendung bleiben.
Michael Calore: Dies ist WIREDs „ Uncanny Valley“ , eine Sendung über die Menschen, die Macht und den Einfluss des Silicon Valley. Heute sprechen wir über KI-Agenten und warum so viele Technologieunternehmen stark auf sie setzen. In den letzten sechs Monaten haben OpenAI, Anthropic, Google und andere Webbrowser-Agenten veröffentlicht, die Aufgaben selbstständig und mit nur minimalem menschlichen Zutun erledigen sollen. OpenAI-CEO Sam Altman bezeichnete KI-Agenten als „den nächsten großen Durchbruch“. Einer Schätzung zufolge setzt fast die Hälfte der Technologieunternehmen bereits KI-Agenten ein oder setzt sie vollständig ein. Diese Woche untersuchen wir, was diese Agenten von anderen Formen maschineller Intelligenz unterscheidet und ob ihre Fähigkeiten dem Hype gerecht werden. Ich bin Michael Calore, Direktor für Verbrauchertechnologie und -kultur hier bei WIRED.
Lauren Goode: Ich bin Lauren Goode, ich bin leitende Korrespondentin bei WIRED.
Will Knight: Und ich bin Will Knight, leitender Redakteur bei WIRED.
Michael Calore: Ich möchte mit der Frage beginnen, ob einer von Ihnen in letzter Zeit in seinem Leben Erfahrungen mit Handlungskompetenz gemacht hat?
Lauren Goode: Ich habe vor Kurzem ein Erlebnis mit Google Duplex gehabt, erinnern Sie sich?
Michael Calore: Sicher.
Lauren Goode: Okay. Das war eine frühe Version. Sie erschien um 2018; wir haben damals bei WIRED darüber geschrieben. Aber ich habe kürzlich versucht, einen Tisch in dem Restaurant zu reservieren, in dem wir beide zu deinem Geburtstag waren. Veganes Sushi. Das ist jetzt schon der San Francisco-mäßigste Podcast aller Zeiten. Wir sprechen über veganes Sushi und wie ich unwissentlich einen KI-Agenten losgeschickt habe, um die Reservierung für mich vorzunehmen.
Michael Calore: Wie war es unwissentlich?
Lauren Goode: Weil ich einfach das ganz Menschliche gemacht habe: Ich bin auf eine Website gegangen und habe eingegeben: „Möchte jetzt für diese Anzahl Personen reservieren.“ Ohne mein Wissen wurde die Anfrage über den Google Assistant weitergeleitet. Dort hieß es: „Wir testen das Restaurant für Sie.“
Michael Calore: Oh.
Lauren Goode: Es hat immer wieder versucht, und dann hat es mir eine Benachrichtigung geschickt. Es hat im Hintergrund versucht, eine Reservierung vorzunehmen. Die Reservierung wurde jedoch nicht erfolgreich abgeschlossen. Zählt das?
Michael Calore: Ja, das zählt voll und ganz.
Lauren Goode: Das ist ein KI-Agent? Er hat in meinem Auftrag gearbeitet.
Michael Calore: Ja.
Lauren Goode: Will, was ist mit dir?
Will Knight: Ich habe mit KI-Programmiertools experimentiert, vor allem mit Claude Code, einem meiner Meinung nach guten Beispiel für einen Agenten. Er macht all diese tollen Dinge: Er schreibt nicht nur Code, sondern bearbeitet auch Dateien und verschiebt sie. Er nutzt Ihr Terminal und löscht Dinge, wenn Sie Pech haben. Das ist die agentische Sache, mit der ich experimentiert habe.
Lauren Goode: Sie haben Vibe-Coding betrieben, das ist es, was Sie sagen.
Will Knight: Ja, das habe ich. Es war faszinierend. Vibe-Coding ist ein Begriff, den der bekannte KI-Forscher Andrej Karpathy geprägt hat. Er beschreibt das Erzeugen ganzer Programme, fertiger Software, einfach durch die Eingabe eines Modells. Diese Modelle konnten schon immer Code automatisch vervollständigen, sind aber im letzten Jahr so gut im Programmieren geworden, dass sie ganze Projekte mit vielen Dateien, Ordnern und allem möglichen erstellen können. Ich habe es eigentlich mit meinem Kind angefangen, weil ich dachte: „Wie bringt man einem Kind bei, KI zu verstehen?“ Außerdem fand ich es schon immer eine gute Idee, sie zum Programmieren zu bringen. Er liebt Spiele, also dachte ich: „Lass uns ein paar Spiele programmieren.“
Michael Calore: Nun, meine Erfahrung ist weit weniger technischer Natur, da ich kürzlich über die Southwest-App eine Änderung an einer Flugreservierung vornehmen musste.
Lauren Goode: Es tut mir leid.
Michael Calore: Ja. Also, es war eigentlich ganz okay.
Lauren Goode: Mein Beileid.
Michael Calore: Ich bin dann zum Chatbot gegangen. Es hieß: „Sprich mit unserem Chatbot, wenn du Hilfe brauchst.“ Ich dachte nur: „Oh, das wird echt nervig.“ Eigentlich lief es ganz gut. Es dauerte fünf Minuten. Ich gab meine Bestätigungsnummer und meine Flugdaten ein. Dann fragte er: „Welche Änderung möchten Sie vornehmen?“ Ich sagte: „Das würde ich gerne machen.“ Sie meinten: „Wir können das kostenlos für Sie erledigen.“ Ich dachte: „Super.“ „Möchten Sie buchen?“ Ja. „Okay, gebucht. Hier ist Ihre neue Bordkarte. Sie müssen einchecken, aber hier ist der Link zum Einchecken und Abrufen Ihrer neuen Bordkarte.“ Ich dachte: „Wow.“
Lauren Goode: Ist das der Mitarbeiter, von dem wir sprechen? Das ist ein Kundendienstmitarbeiter.
Michael Calore: Richtig.
Lauren Goode: Und es ist ein Bot, der das nachbildet. Aber diese neue Ära der agentenbasierten KI, in der Technologieunternehmen Millionen von Dollar einsammeln und Milliardenbewertungen erreichen, weil sie auf Agenten umsteigen, ist doch nicht genau das, oder?
Michael Calore: Stimmt. Das ist eine gute Frage für Will. Können wir dir diese Frage stellen, Will? Was ist der Unterschied zwischen einem KI-Agenten, über den wir sprechen, und einem herkömmlichen Chatbot, wie ihn die meisten kennen?
Will Knight: Richtig. Der Chatbot generiert Text, und man kann über diesen sehr engen Textbereich mit ihm kommunizieren. Das ist außerordentlich leistungsfähig. Die Revolution, die wir erlebt haben, basiert auf diesen Sprachmodellen, die außergewöhnlich schlüssige und gute Antworten auf Fragen liefern können. Das ist nicht ganz dasselbe wie ein KI-System, das von Natur aus ein Agent ist. Wenn man in die Geschichte der KI zurückblickt, haben sich viele Forscher schon immer mit der Idee beschäftigt, dass Intelligenz von Natur aus Handlungsfähigkeit beinhaltet. Menschen sprechen nicht nur. Sie versuchen, Aktionen auszuführen, wir versuchen, Probleme zu lösen. Das ist schon lange ein Ziel. Es ist seltsam, dass wir diese Sprachmodelle hatten, die so begrenzt und irgendwie altmodisch sind. Vieles, was wir bei Agenten sehen, besteht im Grunde darin, dass Menschen Sprachmodelle nutzen und ihre allgemeine und flexible Natur nutzen, um komplexe Befehle zu verarbeiten und Aktionen auszulösen. Der entscheidende Schritt, den Unternehmen machen wollen, ist, dass die Modelle selbst entscheiden und ihre Aktionen selbst formulieren können, eher wie eine intelligente Einheit.
Lauren Goode: Der Mensch ist zwar immer noch involviert, gibt aber einen Befehl oder eine Eingabeaufforderung ein und tritt dann zurück. Der Agent erledigt eine Reihe von KI-Aufgaben, während Sie sich um andere Dinge kümmern. Das ist das Versprechen: Sie werden uns alle hyperproduktiv machen können.
Will Knight: Ja. Idealerweise hätten Sie einen Agenten, der die Fluggesellschaft für Sie anruft. Sie sagen ihm, was Sie tun möchten, und er übernimmt die Verhandlungen für Sie. Oder Sie geben ihm deutlich offenere Anweisungen oder geben an, was Sie erreichen möchten, und er findet heraus, wie es für Sie funktioniert. Die Sprachmodelle sind so allgemein und leistungsfähig, dass sie das theoretisch können sollten. Es gibt jedoch einige entscheidende Haken bei der Nachbildung menschlicher Handlungsfähigkeit, denn in der Welt geht es um viel mehr als nur um Sprache. Handlungsfähigkeit umfasst mehr als nur die Lösung eines individuellen Problems, da andere Menschen involviert sind, was die Sache kompliziert macht.
Michael Calore: Um es gelinde auszudrücken.
Will Knight: Ja.
Michael Calore: Apropos Modelle: Es scheint, als ob ganz Silicon Valley in die Entwicklung eigener KI-Agenten investiert hat. Aber wer sind derzeit die Hauptakteure?
Will Knight: Die Hauptakteure sind die offensichtlichen: OpenAI, Anthropic, Google. Ich denke, Amazon ist ein vielversprechender Außenseiter in diesem Rennen. Sie haben einige Spitzenkräfte von OpenAI angeworben, die ein Agenten-Startup gegründet haben. Sie betreiben ein Labor, in dem sie versuchen, viele Agenten zu entwickeln. Eine der wichtigsten Fragen für diese Unternehmen ist die Datenbeschaffung. Sie alle versuchen verzweifelt herauszufinden, wie man Daten für die Ausbildung dieser Agenten erhält. Statt nur Text zu haben, braucht man Beispiele dafür, was Menschen tun. Amazon hat tatsächlich viele gute Beispiele dafür, von Menschen, die auf seinen Websites aktiv sind. Sie sind ein guter Player.
Lauren Goode: Auch in der Programmierwelt gibt es Unternehmen wie Cursor. Erzählen Sie uns etwas über diese Welt, da Sie ja mit Ihrem Sohn Vibe-Coding gemacht haben.
Will Knight: Ja. Es gibt eine Reihe von Startups, die zwar auf Kosten anderer KI-Unternehmen gefahren sind, sich aber hauptsächlich auf die Programmierung konzentriert haben. Ich denke, gerade weil sich das so schnell entwickelt hat, konnten sie sich diese Nischen erobern. Gerüchten zufolge plant OpenAI, eines dieser Unternehmen, Windsurf, für etwa drei Milliarden zu übernehmen. Das zeigt, wie sie dieses großartige Geschäft für sich aufgebaut haben.
Lauren Goode: Es scheint, als würde in jedem Briefing, an dem wir heutzutage teilnehmen, ein Unternehmen über Agenten sprechen.
Michael Calore: Ja.
Lauren Goode: Das ist auch sehr vielfältig. Von Nvidia über Microsoft bis hin zu kapitalkräftigen Startups ist alles vertreten. Erst Anfang dieser Woche ist eine Firma namens Glean aufgetaucht – ich bin mir ziemlich sicher, Sie haben davon gehört. Sie hat eine Suchmaschine für Unternehmensanwendungen entwickelt. Sie hat gerade 150 Millionen Dollar in einer Finanzierungsrunde der Serie F eingesammelt. Sie wird jetzt mit 7,2 Milliarden Dollar bewertet. Ihr Hauptaugenmerk liegt jetzt auf Agenten. Alles dreht sich um Agenten.
Will Knight: Ich denke, man muss sich das so vorstellen: Wer entwickelt eigentlich Modelle, die versuchen, die allgemeine Handlungsfähigkeit eines Sprachmodells zu erlernen? Das ist OpenAI, diese Unternehmen, die sich mit Basismodellen beschäftigen. Man kann in eine frühere Ära der KI zurückblicken, als es einige dieser spielbasierten KI-Systeme wie AlphaZero gab. Diese nutzten bestärkendes Lernen, diesen Prozess des Experimentierens. Aber sie waren grundsätzlich handlungsorientiert. Sie operierten nur in der sehr begrenzten Welt eines Brettspiels, aber sie führt Aktionen aus und versucht herauszufinden, wie man diese ausführt. Was wir jetzt bei diesen KI-Unternehmen sehen, spiegelt das wider oder geht in gewisser Weise darauf zurück, weil sie versuchen, sie dazu zu bringen, eine bestimmte Antwort, ein bestimmtes Endziel zu erreichen.
Michael Calore: Wenn wir darüber nachdenken, welche Rolle KI-Agenten langfristig spielen könnten, beginnen viele der Unternehmen, über die wir sprechen, mit dem Kundenservice. Sie beginnen mit der Frage: „Okay, Sie haben eine einfache Frage, Sie brauchen eine einfache Lösung. Ich kann das für Sie herausfinden und umsetzen.“ Ich denke, dort werden die meisten ersten Schritte gemacht. Gartner, der Marktforscher für Technologie, schätzt, dass KI-Agenten bis zum Jahr 2029 80 % der gängigen Kundenserviceanfragen beantworten werden. Das heißt, in vier Jahren werden KI-Agenten den gesamten Kundenservice für uns übernehmen. Anhand einiger der besprochenen Beispiele scheint sich die Automatisierung von Aufgaben, die derzeit von menschlichen Mitarbeitern erledigt werden, hier wie ein roter Faden durchzusetzen.
Will Knight: Ja. Ich denke, der Kundenservice ist ein naheliegender Ansatzpunkt, da man dort das nutzt, wofür Sprachmodelle hervorragend geeignet sind: mit Menschen zu kommunizieren und dann eine relativ begrenzte Anzahl von Aufgaben zu erledigen. Viele dieser Unternehmen, die großen KI-Player, überlegen, vom Programmieren zur Automatisierung von Büroarbeit überzugehen. Büroarbeit enthält viele repetitive Aufgaben. Theoretisch könnte man diese Modelle als Bindeglied nutzen, um herauszufinden, was jemand versucht, und das dann zu replizieren. In der Programmierwelt gibt es bereits große Bedenken, dass dadurch viele Arbeitsplätze verloren gehen. Und ich denke, es besteht eine gute Chance, dass dies auch für viel mehr Routinearbeiten im Büro gilt.
Lauren Goode: Es hat Spaß gemacht, diesen Podcast mit Ihnen allen zu machen.
Michael Calore: Wir haben uns hauptsächlich darauf konzentriert, wie KI-Agenten Dinge erledigen, wie im Internet surfen, ein Restaurant anrufen oder Aufgaben in einem Microsoft-Office-Produkt für Sie erledigen. Mich interessiert aber, wie die Welt der agentenbasierten KI in unseren Häusern, auf unseren physischen Geräten, aussieht. Das ist in letzter Zeit in aller Munde, denn OpenAI hat gerade bekannt gegeben, dass es mit Jony Ive, dem ehemaligen und langjährigen Designchef von Apple, einen Deal zur Übernahme eines von ihm gegründeten Startups abgeschlossen hat, das eine neue Klasse von KI-Geräten für den Heimgebrauch entwickelt. Wie stehen wir zu dieser Entwicklung?
Lauren Goode: Das ist schwer zu sagen, da wir noch nicht genau wissen, welche Form es annehmen wird. Ich denke, das ist repräsentativ für eine neue Generation von Startups und Hardware-Startups, die diese KIs unterstützen werden. Sie werden von Grund auf mit Blick auf die Zukunft der künstlichen Intelligenz und des Ambient Computing entwickelt. Wir wissen noch nicht genau, welchen Formfaktor sie annehmen wird. Ob sie auf Ihrem Schreibtisch, am Körper oder vielleicht beides sein wird. Nun, ich weiß es zu schätzen. Ich glaube, es war Jony Ive, der so etwas sagte wie: „Wir sind uns alle einig, wir hängen ein bisschen zu sehr an unserem iPhone.“ Was sie erfunden haben, ist nun: „Wir müssen das lösen, was wir erfunden haben.“ Die Idee ist aber: Kann KI tatsächlich so viel leisten, dass wir nicht mehr ständig vor dem Bildschirm sitzen und Aktionen ausführen müssen? Kann Technologie einen Teil davon für uns übernehmen? Und uns dann mehr Freiraum für andere Dinge geben. Das war im Silicon Valley schon immer eines der Versprechen der KI. Ich erinnere mich, wie ich vor Jahren mit Astro Teller von Google X sprach und ihn fragte: „Was bedeutet das für Arbeitsplätze?“ Und er antwortete im Grunde: „Mit KI werden die Menschen einfach aufsteigen.“ Das war schon immer eine optimistische Sichtweise des Silicon Valley auf KI. Ich denke, es werden neue Jobs und Aufgaben entstehen, an die wir vielleicht noch gar nicht gedacht haben, von denen wir aber noch keine Ahnung haben, wie sie sich in unseren Alltag integrieren werden.
Michael Calore: Richtig. Ich glaube nämlich, dass die Leute das schon lange ausprobieren. Immer wenn wir die Demo für die nächste Version von Siri, Alexa oder Google Assistant sahen, gab es eine Demo, in der der sprachgesteuerte Smart Speaker aufgefordert wurde, eine Pizza zu bestellen.
Lauren Goode: Ja, es waren die Pizza und das Uber, das waren immer die Beispiele.
Michael Calore: Das sind die Vereinbarungen, die die Gerätehersteller mit den Unternehmen getroffen und in die sie integriert haben. Wenn man Alexa fragt: „Kannst du eine Pizza bestellen?“, ruft sie nicht Dominoes an und Alexa bestellt die Pizza per Sprachbefehl. Es passiert einfach online in einer App, im Grunde über eine API. Ich denke, wenn man über die nächste Generation spricht, kann man alles Mögliche befehlen. Was meinst du damit? Ist es ein Gerät, das neben Computer und Smartphone steht? Warum muss es ein separates Gerät sein? Warum kann es nur Computer und Smartphone sein? Das ist meine große Frage. Brauchen wir etwas, das wahrscheinlich mehrere hundert Dollar kostet, sehr ansprechend aussieht und vieles von dem kann, was die beiden anderen Geräte, die wir bereits besitzen, können? Ich weiß es nicht genau. Aber alle sind begeistert, weil Jony Ive und Sam Altman sich zusammengetan haben.
Lauren Goode: Genau. Es wird zum Liefermechanismus für das neue Zeitalter des Computing. Ich denke auch, die Beispiele, über die wir sprechen, erinnern stark an die Zukunft von Wall-E. Wie faul können wir sein, wenn wir KI und maschinelles Lernen die Dinge für uns erledigen lassen? Wobei sich auch die Frage stellt: Wie viel mehr kann ich lernen? Welches Wissen kann ich mir aneignen? Was kann ich anders machen, weil KI mir hilft? Verbraucher versprechen schon lange, dass sich unser Alltag dadurch verändern wird, indem wir die kleinen Unannehmlichkeiten, die wir heute haben, beseitigen. Aber ich denke, die wirklichen Vorteile liegen darin – ich möchte nicht zu optimistisch klingen, denn ich bin es nicht ganz –, dass wir Wissenslücken schließen können, weil KI uns dabei tatsächlich helfen wird.
Will Knight: Ja. Ich denke, was OpenAI und Jony Ive betrifft, werden die Modelle immer besser darin, die visuelle Welt zu interpretieren und sprachlich zu interagieren. Ich denke, es steckt die Idee dahinter, dass man eine völlig neue Benutzeroberfläche haben kann, man kann die Benutzeroberfläche komplett neu gestalten. Man hat keine grafische Benutzeroberfläche. Wer weiß, was sie sich noch einfallen lassen. Google hat das mit dem Projekt Astra demonstriert, bei dem man eine Brille trägt und über seine Umgebung sprechen kann. Ich habe das ausprobiert. Es ist ziemlich beeindruckend. Ja, vielleicht gibt es neue Möglichkeiten, damit Pizza zu bestellen. Aber ich muss auch daran denken, dass sie die Daten für das, was die Leute tun, zunehmend benötigen, um diese Modelle zu trainieren. Ich habe das Gefühl, die Hardwarehersteller verfügen über so viele interessante Daten. Sie nutzen sie aus Datenschutzgründen nicht wirklich, aber vielleicht findet OpenAI ja einen Weg. Was die Ausbildung betrifft, ist die Wissenslücke meiner Meinung nach ein ganz wichtiger Punkt, denn Automatisierung führt oft zum Kompetenzverlust. Man sieht es beim Autopiloten in Flugzeugen. Programmierer berichten, dass sie ihre Fähigkeiten verlieren, weil sie sich zu sehr darauf verlassen. Was bedeutet das für die Belegschaft?
Lauren Goode: Richtig. Wenn uns all diese KI-Agenten für andere Dinge freimachen, wofür genau werden sie uns dann freimachen? Wie werden wir diese Zeit füllen? In unserer ultrakapitalistischen – manche würden es als Endstadium des Kapitalismus bezeichnen – Gesellschaft lautet die Antwort wahrscheinlich: „Man kann einfach produktiver sein. Man kann einfach mehr, mehr, mehr tun.“ Ich denke, es liegt an uns Menschen, uns dagegen zu wehren und zu sagen: „So wollen wir unsere Zeit tatsächlich füllen.“ Es wird auch noch eine Weile diese kleinen Engpässe geben, die das Ganze meiner Meinung nach komplizierter machen werden als alles andere. Als ich vor ein paar Wochen auf der Google IO war, habe ich eine Demo von ihrem Projekt Mariner gesehen, Will. Hast du das schon gesehen?
Will Knight: Ja, das habe ich versucht. Ja.
Lauren Goode: Haben Sie es schon ausprobiert? Ich weiß nicht, ob das die Demo war, die sie Ihnen gegeben haben, aber ich habe es so erlebt: Es scannte ein Cocktailrezept. Dann wurden die Zutaten automatisch aus dem Cocktail genommen und in den Instacart-Einkaufswagen gelegt. Doch dann gab es einen Engpass, weil es keine Authentifizierung für das Instacart-Konto gab. Es hieß: „Oh, Moment mal, wir müssen uns anmelden.“ Dann versuchte ein Demo-Benutzer, sich bei Instacart anzumelden. „Aber sehen Sie, es läuft doch so reibungslos.“ Ich dachte: „Nein, ich hätte das einfach zu Instacart hinzufügen können.“
Will Knight: Ja. Ihre Beispiele scheinen immer damit zu tun zu haben, aus irgendeinem Grund etwas zu kaufen.
Michael Calore: Warum glauben wir, dass sich das Silicon Valley derzeit so stark auf KI-Agenten konzentriert? Liegt es an der Tendenz des Valleys, immer nur ein neues Ziel zu suchen? Deutet das auf etwas Größeres hin? Sind Risikokapitalgeber an der Finanzierung am meisten interessiert? Was ist der Grund dafür?
Will Knight: Aus meiner Sicht ist einer der Hauptgründe, dass dies, wenn man die Geschichte der KI betrachtet, der nächste Schritt ist, um etwas zu entwickeln, das einer menschenähnlichen KI oder AGI – oder wie auch immer man es nennen will – näher kommt. Viele Forscher sind daran sehr interessiert. Ich denke, es gibt auch jede Menge Potenzial. Mit einem Chatbot zu chatten ist nützlich, wenn man viele Dinge erledigen und viele Fragen beantworten möchte. Aber die Idee, viele Aufgaben oder alltägliche Routinearbeiten zu automatisieren, ist potenziell wertvoll.
Lauren Goode: Ja. Ich denke, wenn man auf der Startup-Seite ist, fließt gerade das Geld dorthin. Wir befinden uns schon seit einiger Zeit in einer Ära mit sehr hohen Zinsen. Für manche Startups war es nicht einfach, Kapital zu beschaffen. Der IPO-Markt hat eine kurze Pause eingelegt und sich etwas abgekühlt. Jetzt gibt es jedoch Anzeichen für eine Erholung. Ich denke, die Gefahr von Zöllen schwebt im Silicon Valley immer noch über den Köpfen. Wenn man seine Software weiterentwickelt hat und plötzlich potenziellen Investoren sagen kann: „Aber Moment mal! Wir konzentrieren uns auf Agenten. Wir entwickeln diese agentenbasierte KI. Wir werden diese Software an andere Unternehmen verkaufen können, außerdem werden wir unsere eigenen Prozesse optimieren und unsere Gemeinkosten senken.“ Das ist wahrscheinlich gerade ein Weg zur Kapitalbeschaffung. Ist das zum Teil nur Hype? Sicher. Aber wie Will schon sagt, weil Sie so tief in der Forschung und Entwicklung dieser Sache verwurzelt sind, werden tatsächlich auch einige ziemlich bemerkenswerte Fortschritte erzielt.
Michael Calore: Machen wir jetzt eine Pause und kommen gleich darauf zurück. Die Entwicklung von Agenten schreitet mit Hochdruck voran, aber wie wir gerade besprochen haben, haben die aktuell verfügbaren Agenten erhebliche Einschränkungen. Welche weiteren Bedenken stehen hinter der Entwicklung von KI-Agenten? Nicht nur die Benutzerfreundlichkeit, sondern auch ihre weiteren Funktionen.
Lauren Goode: Ich denke, Zuverlässigkeit ist sicherlich ein Problem, da sie immer noch denselben Trugbildern, Fehlern und sogar Speichelleckereien unterliegen wie die LLMs. Zudem werden deutlich komplexere Abfragen erstellt, da die Software nicht nur eine Suche durchführen soll, sondern mehrere Schritte unter bestimmten Bedingungen ausführen soll. Es gibt auch Bedenken hinsichtlich der hohen Kosten für Rechenleistung. Und dann ist da noch der Verkauf des Produkts selbst. The Information berichtete kürzlich, dass OpenAI für einige seiner spezialisierteren KI-Agenten bis zu 20.000 Dollar pro Monat verlangen könnte. Angeblich sollen diese Agenten das Fachwissen eines Doktoranden erreichen. Einerseits ist das sehr, sehr teuer. Andererseits hat unser Kollege Paresh Dave berichtet, dass einige Branchenkenner das für gar nicht so viel halten. Denn wenn diese Agenten Arbeitsplätze ersetzen, was sie möglicherweise tun, spart man letztendlich all diese Gehaltskosten. Es könnte tatsächlich ein echtes Schnäppchen sein. Im Moment herrscht allerdings ein kleiner Preisschock darüber.
Will Knight: Ja, das stimmt. Es gibt noch eine Reihe anderer Probleme, Dinge, die schiefgehen könnten und wahrscheinlich auch schiefgehen werden. Ich habe mit einigen Forschern gesprochen … Ich habe mit Zico Kolter von der CMU gesprochen, der auch im Vorstand von OpenAI sitzt und sich mit der Sicherheit von Agenten beschäftigt und gerade Agenten einführt, die idealerweise in Zukunft mit anderen Agenten interagieren. Es gibt einen verstärkenden Effekt, der sehr schwer vorherzusagen sein könnte. Wie Lauren schon sagt, macht die Vorstellung, dass diese Dinge Dinge kaufen, sie von Natur aus zu einem viel attraktiveren Ziel für Hacker. Wenn man so etwas wie Mariner im Internet nutzt, ist es wirklich interessant, darüber nachzudenken, ob Leute vielleicht versuchen werden, SEO für Agenten neu zu erfinden. Eines der grundlegenderen Probleme ist meiner Meinung nach, dass diese Methoden menschliches Handeln nicht wirklich nachbilden. Es gibt ein wirklich interessantes Buch dazu, das sich eingehend mit dem Titel „The Evolution of Agency“ befasst. Betrachtet man Tiere und die Entwicklung ihrer Handlungsfähigkeit, so zeigt sich beim Menschen ein grundlegender Unterschied in der menschlichen Handlungsfähigkeit. Sie beinhaltet die Zusammenarbeit mit anderen Menschen. Sie erfordert Zusammenarbeit und das Wissen, dass man oft Opfer bringen muss, um zusammenzuarbeiten. Schuldgefühle und Empathie haben sich entwickelt. Wir sehen Beispiele von Modellen, die in konstruierten Fällen wirklich verrückte Dinge tun, indem ihnen gesagt wird, sie würden abgeschaltet, und sie dann jemanden erpressen. Das ist nicht unbedingt ein Beispiel für ein böses Modell, es könnte einfach ein Beispiel für ein Modell sein, das nicht gelernt hat, wie wir es von einem Menschen erwarten würden. Ja, das könnte viele unvorhergesehene Folgen haben.
Michael Calore: Meine größte Sorge betrifft etwas, das Sie angesprochen haben, Lauren: Der Hype um KI-Agenten nimmt zu, und viele Unternehmen werden sie als Möglichkeit zur Kostensenkung betrachten. Es ist nicht grundsätzlich falsch, Arbeitskosten zu senken, aber ich finde es grundsätzlich falsch, eine ganze Arbeiterklasse in einem Unternehmen durch Maschinen zu ersetzen. Das ist im wahrsten Sinne des Wortes entmenschlichend. Und ich meine das nicht nur im scherzhaften Sinne, dass man Menschen abschafft, sondern auch, dass sich die Mitarbeiter und Kunden, die mit Ihrem Unternehmen interagieren, entfremdet fühlen werden, weil sie nicht mehr die gewohnte menschliche Interaktion haben. Wir sehen das bereits. Das begeistert Menschen, die sich große Sorgen um den Gewinn machen, und beunruhigt Menschen, die sich um Einkommen und Gleichberechtigung sorgen – und all die Probleme, die dieser rasante Trend zur Mechanisierung mit sich bringt. Wir als Gesellschaft haben mit diesem Thema seit 150 Jahren zu kämpfen und ich habe den Eindruck, dass diese Sorgen mit der zunehmenden Leistungsfähigkeit der Technologie nur noch größer werden.
Lauren Goode: Allein in der letzten Woche habe ich einen Risikokapitalgeber und einen CEO in getrennten Interviews sagen hören: „Sechs von zehn Jobs, also 60 % der heutigen Jobs, gab es 1940 noch nicht.“ Die Dinge ändern sich, die Technologie ermöglicht neue Jobs. Futuristen, CEOs und Risikokapitalgeber lieben das, weil es Raum für das schafft, was wir uns noch nicht vorstellen konnten – für zukünftige Jobs. Glaube ich, dass Wills Sohn, mit dem er gerade Vibe-Coding macht, möglicherweise Jobs haben könnte, an die wir noch gar nicht gedacht haben?
Michael Calore: Denken alle im Silicon Valley auf die gleiche Weise über KI-Agenten?
Will Knight: Ich glaube nicht. Ich denke, es gibt viel Enthusiasmus, aber auch viele unterschiedliche Definitionen. Kürzlich habe ich mit Sonya Huang gesprochen, einer Partnerin bei Sequoia, die sich mit KI beschäftigt. Sie sagte, dass die meisten Agenten-Startups, die meisten Unternehmen, die Agenten anbieten, im Grunde nur bestehende KI-Tools als Agenten umbenennen.
Lauren Goode: Ja. Zu Wills vorherigem Punkt: Es gibt derzeit keine wirklich klare Definition dessen, was ein KI-Agent ist oder sein soll. Das Spektrum ist breit, sodass Unternehmen die Möglichkeiten frei definieren und nutzen können. Oder sie können sagen, dass sie ihn auf eine bestimmte Art und Weise anbieten. Ich denke, wir werden auch eine Art Heimindustrie im Bereich der agentenbasierten KI erleben. Nehmen wir zum Beispiel einen Authentifizierungsengpass an, wenn ein Agent verschiedene Aufgaben online über verschiedene Apps erledigen soll. Es muss eine sichere Verbindung zwischen diesen Apps geben. Ich denke, es werden Lösungen dafür entstehen. Ich denke, es wird eine Art Last-Mile-Shipping geben, allerdings für die Programmierung. Denn derzeit wird viel Vibe-Coding betrieben, und die Leute reden darüber und sagen: „Seht mal, was dieser Bot für mich tun kann.“ Aber nicht der gesamte Code ist tatsächlich lieferfähig. Man muss in der Lage sein, Fehler zu beheben und auszuliefern. Es muss laufen, es muss funktionieren. Ich denke, es werden immer mehr Startups und Unternehmen versuchen, Lösungen für all diese kleinen Lücken und Engpässe zwischen den KI-Agenten anzubieten. Dann werden unsere Jobs voll ausgelastet sein. Gute Zeiten.
Michael Calore: Will, für Leute wie uns, die diese Technologie konsumieren ... Wir betreiben kein Vibe-Coding wie Will.
Lauren Goode: Noch nicht.
Michael Calore: Agentenbasierte KI begegnet uns im Großen und Ganzen in irgendeiner Form in unserem Alltag. Wie können wir angesichts ihrer zunehmenden Verbreitung ihr Potenzial und ihre Risiken nüchtern einschätzen?
Will Knight: Zunächst einmal finde ich, ihr solltet alle Vibe-Coding machen. Ich mache jede Menge Mist. Beim Vibe-Coding mache ich es ganz bewusst auf einem Rechner, bei dem es mir nichts ausmacht, wenn ein paar Dateien gelöscht werden, denn das ist wirklich unvorhersehbar und passiert manchmal. Ich weiß nicht wirklich, wie man das bei etwas macht, das man beim Einkaufen einfach so ausgibt. Habt ihr ein Budget, das ihr dem Agenten einfach überlasst? Ich finde, das ist eine gute Frage. Das Risiko liegt offensichtlich ganz bei uns, nehme ich an.
Michael Calore: Ja.
Lauren Goode: Ja. Aber ich denke, da diese Agenten immer besser darin werden, Aufgaben für uns zu erledigen, tragen wir zumindest einige Verantwortungen. Erstens müssen wir uns und unsere Gewohnheiten ändern und lernen, neue Tools zu nutzen, denn sie werden unser Leben bestimmen. Zweitens müssen wir herausfinden, wo wir als Menschen hingehören, uns einen Teil unserer menschlichen Handlungsfähigkeit bewahren und trotzdem aktiv mitwirken, am Ball bleiben und unser eigenes Leben gestalten, anstatt es einfach der Technologie überlassen zu lassen. Drittens müssen wir uns intensiv mit der Ethik, dem Datenschutz und der Sicherheit dessen auseinandersetzen, was diese KI-Agenten tun, während sie unser Leben bestimmen. Alle Optimisten versprechen, dass dies die Ungleichheitslücke schließen wird. Noch einmal: Es wird großartig für alle sein. Wir wissen fast mit Sicherheit, dass es nicht großartig für alle sein wird.
Michael Calore: Ja. Deshalb bin ich zu diesem Zeitpunkt das Gegenteil der Optimisten. Ich denke, dass große Vorsicht und große Skepsis Dinge sind, die hier gegeben werden. Wir müssen sicherstellen, dass wir dies, wenn wir diese Technologien übernehmen, dies auf eine Weise tun, die sehr, sehr nachdenklich und vorsichtig ist. Dies ist etwas, das sich bekannt anfühlt. Das wahrscheinlich jüngste Beispiel ist das Telefon, das Smartphone. Etwas, das Reibung in Beziehungen verursacht, es ist etwas, auf das Sie achten können, und Sie können Menschen ignorieren. Sie können es verwenden, um mit anderen Menschen zu interagieren. Sie können es verwenden, um nicht mit anderen Menschen zu interagieren. Diese Kraft, die in den 15 oder 20 Jahren, in denen dies Teil unseres Lebens war, wirklich einen kleinen Teil unserer Menschlichkeit erodiert hat. Ich kann sehen, dass das mit KI -Agenten als die Dinge passiert, die wir uns auf die Menschen verlassen hatten und die Dinge, die uns früher gezwungen haben, miteinander zu interagieren, verschwinden. Ich habe die gleiche Erfahrung, wenn ich in einem Waymo fahre, anstatt in einem Uber zu fahren oder ein Taxi zu nehmen. Die Tatsache, dass es jetzt keinen Menschen in der Gleichung gibt, gibt es keine Person, mit der man interagieren kann. Wenn ich das immer und immer wieder mache, erodiere ich langsam mein eigenes Gefühl dafür, was es bedeutet, ein Mensch zu sein. Ich weiß, dass es wirklich esoterisch klingt, aber Sie können es im Laufe der Zeit aufstellen und Sie werden wahrscheinlich feststellen, dass Sie in Ihrem eigenen Leben genauso fühlen. Ich würde die Menschen ermutigen, diese Entscheidung darüber zu treffen, wie sie AI -Agenten verwenden wollen. Wenn sie nicht das Gefühl haben, dass dies in ihrem Leben gehört, sollten sie mit ihren Dollars abstimmen.
Will Knight: Vielleicht benötigen wir auch eine erneute Open -Source -Bewegung, sodass wir nicht nur Agenten verwenden, die an diesen riesigen Unternehmen Daten hingehen und Daten übertragen. Verwenden Sie Open Source Code und Modelle und so etwas.
Michael Calore: Das ist eine sehr gute Idee. Darauf sollten wir ein Signal bekommen. Sie sollten damit anfangen. Sie sollten ihr eigenes Modell machen.
Lauren Goode: Ich denke, das klingt großartig.
Michael Calore: OK, machen wir eine weitere Pause und wir werden gleich zurückkommen. Will und Lauren, vielen Dank für das belebende Gespräch. Wir werden AI -Agenten für eine Minute zur Seite bringen und wieder Menschen bekommen. Lassen Sie uns einige Empfehlungen durchgehen. Empfehle als unser Gast, bitte etwas an unsere Zuhörer.
Will Knight: OK, ich habe früher darüber gesprochen, aber ich möchte dies zu meiner Empfehlung machen. Ich werde es aufhalten, das ist großartiges Radio. Dieses Buch ist die Entwicklung der Agentur von Michael Tomasello. Ich fand es einfach faszinierend und wirklich aufschlussreich, was bei KI fehlt, wenn es um Agentur geht, und wie wichtig es ist, menschliche soziale Interaktion, die menschliche Kultur zu verstehen. Wenn es um das Gesamtbild der Intelligenz in AGI geht, über das alle sprechen, aber sie sprechen nicht so sehr darüber.
Michael Calore: Schön. Lauren, was ist deine Empfehlung?
Lauren Goode: Meine Empfehlung sind lokale Nachrichten und insbesondere Mission Local.
Michael Calore: Yay!
Lauren Goode: Mission Local ist eine lokale gemeinnützige Nachrichtenorganisation hier in San Francisco, die das Missionsviertel abdeckt, aber auch in San Francisco. Sie machen einen fantastischen Job. Im Moment ist in den US -Städten, insbesondere in Los Angeles, und auch in San Francisco viel los. Im ganzen Land kommen Eisüberfälle und die Menschen gehen auf die Straße, um sie zu protestieren. Mission Local hat großartige Arbeit geleistet, um das zu berichten, was bisher in San Francisco vor sich geht. Ich empfehle Ihnen, sie zu unterstützen und Ihre lokalen Nachrichten zu unterstützen, wenn Sie können. Mike, was ist Ihre Empfehlung?
Michael Calore: Ich möchte einen Aufsatz in der aktuellen Ausgabe von Harper's empfehlen. Es ist der norwegische Schriftsteller Karl Ove Knausgaard, der, Lauren, ich bin sicher, dass Sie es satt haben, darüber zu sprechen. Aber es ist ein fantastischer Aufsatz. Es heißt "The Reenched World". Es ist Karl Ove, die mit Technologie rechnen. Er erzählt Ihnen, als er zum ersten Mal auf einen Computer stieß, der vor 40 Jahren war. Dann hat er nur auf Computer geachtet und es beginnt ihn zu stören. Es gibt ein tolles Zitat oben. "Es ist eine Pflicht, etwas über die politische Situation in der Welt zu informieren, was man sich nicht wenden kann. Sollte sich angesichts der Unermesslichkeit des Einflusses nicht etwas Ähnliches gelten?" Ich liebe dieses Zitat, weil es wirklich in die Mitte dessen kommt, worüber wir heute sprechen. Um sich mit der Welt zu beschäftigen, müssen Sie verstehen, wie diese Systeme funktionieren. Er geht auf eine griechische Insel, um den Schriftsteller James Bridle zu besuchen, weil ihre Buchwege eine wirklich gute Einführung in die Intelligenz, künstliche Intelligenz und natürliche Intelligenz sind. Sie sprechen viel über künstliche Intelligenz und darüber, wie es sich entwickelt hat und wie die verschiedenen Arten der Berechnung von Intelligenz in unserem Leben aufgetaucht sind. Es ist ein wirklich wunderbar berichtetes Stück über den aktuellen Stand der Technologie in unserem Leben.
Lauren Goode: Großartig.
Michael Calore: Ja.
Lauren Goode: Es klingt viel kürzer als seine Bücher.
Michael Calore: Ja. Sie können es in weniger als einer Stunde lesen.
Lauren Goode: Ganzrechte klingt gut für mich.
Michael Calore: Danke, dass du ein unheimliches Tal gehört hast. Wenn Ihnen das gefallen, was Sie heute gehört haben, verfolgen Sie unsere Show und bewerten Sie sie in Ihrer Podcast -App Ihrer Wahl. Wenn Sie uns mit Fragen, Kommentaren oder Vorschlägen mit uns in Verbindung setzen möchten, schreiben Sie uns an [email protected]. Die heutige Show wurde von Adriana Tapia produziert. Amar Lal bei Macro Sound mischte diese Episode. Jake Loomis war unser New Yorker Studio -Ingenieur. Meghan Herbst überprüfte diese Episode. Jordan Bell ist unser ausführender Produzent. Katie Drummond ist die globale Redaktionsdirektorin von Wired. Chris Bannon ist der Leiter des globalen Audios.
wired