Sprache auswählen

German

Down Icon

Land auswählen

Russia

Down Icon

Ist sie wirklich sauer auf mich? Vielleicht weiß ChatGPT es

Ist sie wirklich sauer auf mich? Vielleicht weiß ChatGPT es
Menschen greifen zur Lösung zwischenmenschlicher Konflikte auf generative KI zurück, manche sagen jedoch, dass ihre Ängste dadurch verstärkt würden.
Foto-Illustration: WIRED Staff/Getty Images

Green steckte mitten in einer Trennung. Die Gründe dafür waren für Trennungsverhältnisse weitgehend unauffällig: Zwei Menschen, die nicht in der Lage waren, die Bedürfnisse des anderen zu erfüllen und Schwierigkeiten mit der Kommunikation hatten, beschlossen, getrennte Wege zu gehen. Als Greens Ex sich unaufgefordert meldete, war Green schockiert.

Die E-Mail selbst war nicht bemerkenswert. Green, ein 29-jähriger New Yorker, beschreibt sie als einen typischen Brief nach einer Trennung, in dem er seinen Unmut kundtut und aufzeigt, wie die Erwartungen nicht erfüllt wurden. Trotzdem hätten die beiden eigentlich keinen Kontakt zueinander aufnehmen sollen. Green gefiel die E-Mail und ihr Ton nicht und sagte das auch ihrem Ex.

„Ich erhielt die Antwort, dass sie alles Mögliche getan hätten, um sicherzustellen, dass es weder beleidigend noch gemein sei – dass sie es mehrmals durch ChatGPT laufen ließen, um sicherzustellen, dass niemandes Gefühle verletzt würden“, sagt Green. „ChatGPT hat nicht die Historie, die wir – ich und mein Partner – haben, daher weiß ich nicht, wie es auf den Kontext unserer Beziehung anwendbar sein könnte.“

Green, ein ChatGPT- Nutzer, der gelegentlich auch Probleme mit der Plattform bearbeitet, war zunächst verwirrt, dann verärgert. „Ich war überrascht, dass eine so persönliche, fürsorgliche Beziehung auf die Meinung von ChatGPT reduziert wurde, anstatt auf meine eigenen Grenzen, Meinungen oder Bedürfnisse“, sagt er. „Es fühlte sich unpersönlich an.“

Generative KI hat rasch jeden Aspekt des modernen Lebens durchdrungen. Sie hat Arbeitsplätze in vielen verschiedenen Branchen durchdrungen, Originalkunst kannabalisiert und von Künstlern gestohlen , um ihre eigene zu schaffen . Schüler nutzen sie zum Schummeln , Lehrer für Unterrichtspläne. Sie radikalisiert gefährdete Nutzer . Sie könnte bald dazu beitragen, die Zulassung neuer Medikamente zu diktieren. Sie hat tiefgreifende Auswirkungen auf unsere Umwelt . KI reanimiert Opfer nach ihrem Tod, damit sie vor Gericht Aussagen machen können. Menschen verlieben sich in ChatGPT von Open AI . Andere nutzen es für Therapien .

Unweigerlich, so scheint es, ist KI zum Werkzeug geworden, das Menschen heute für das Menschlichste überhaupt nutzen: den Versuch, einander zu verstehen. Ob es darum geht, Texte potenzieller Partner zu analysieren, um tiefere Bedeutungen zu erkennen, Streitigkeiten mit Freunden zu schlichten oder mit der Familie Frieden zu schließen – Menschen nutzen ChatGPT, um ihre zwischenmenschlichen Probleme allein zu lösen. Neben ihrem aufrichtigen Wunsch, besser mit den Menschen in ihrem Leben zu kommunizieren, schämen sich die ChatGPT-Nutzer, mit denen WIRED sprach, immer noch, einen Computer zur Bewältigung ihrer menschlichen Probleme zu nutzen. Alle baten darum, ihre Nachnamen aus Datenschutzgründen nicht zu verwenden.

Es birgt ein Risiko, emotionale Arbeit einer KI statt einer anderen Person zu überlassen. „Unsere Freundschaften hängen von diesen Bindungen ab“, sagt Daniel Kimmel, klinischer Psychiater an der Columbia University. „Wir müssen uns darüber im Klaren sein, welche grundlegenden Voraussetzungen für eine funktionierende menschliche Gesellschaft und eine funktionierende menschliche Freundschaft notwendig sind.“

Der Mensch hat Hunderttausende von Jahren damit verbracht, seinen eigenen „Emotionssimulator“ zu entwickeln – Instinkte, die ihm helfen, einander zu verstehen, sagt Kimmel. KI hingegen verfüge nicht über diese emotionale Erfahrung. Was sie jedoch verfüge, so Kimmel, sei eine „extrem leistungsstarke Vorhersagemaschine“, die Muster und Sprache interpretieren könne.

„Darin liegt die Beschränkung der KI: Sie kann nur mit Worten arbeiten“, sagt Kimmel. „Unser Modell basiert auf etwas, das keine Worte sind. Es ist unbeschreiblich.“

Kate, eine 35-Jährige aus Denver, nutzt ChatGPT seit etwa zweieinhalb Monaten zur Analyse ihrer Beziehungen. Sie lernte ChatGPT durch ihre Arbeit kennen: Ihr Team nutzt den Dienst sowohl für eigene Projekte als auch für die Beratung von Unternehmen bei der Integration in ihre Projekte.

Für Kate war der Umstieg von ChatGPT beruflich auf privat kein Problem. Schon in der Zeit vor der KI war sie es gewohnt, Reddit-Threads zu lesen oder Beziehungsfragen zu googeln, wie etwa: „Wie erkennt man, ob der Mann, mit dem man ausgeht, über seinen Ex hinweg ist?“ Kate sagt, dass Wunden aus vergangenen Beziehungen ihr Verhalten und ihre Emotionen noch immer beeinflussen. „Ich neige eindeutig zu einem ängstlichen Bindungstyp, was sich in frühen Beziehungen gezeigt hat.“

Nach etwa anderthalb Monaten Beziehung geriet Kate in einen besonders angespannten Teufelskreis. Ihr neuer Freund war frisch geschieden und hatte ein kleines Kind. Das weckte schmerzhafte Erinnerungen an ihren Ex, und Kate hatte Angst, wieder verletzt zu werden. Sie und ihr neuer Freund hatten schon lange SMS geschrieben, also exportierte Kate ihren gesamten Chat und lud ihn in ChatGPT. „Ich ließ unseren Nachrichtenaustausch analysieren und mir eine Scorecard erstellen“, sagt Kate. Dazu gehörten Fragen zu ihren jeweiligen Bindungsstilen, den gesunden Aspekten ihrer Beziehungen und – vielleicht die beängstigendste Frage – wer mag wen mehr?

„Ehrlich gesagt, ich habe es ziemlich schwer genommen“, sagt sie über die Antworten, die sie erhielt. ChatGPT sagte ihr, ihr aktueller Partner neige zu einem vermeidenden Bindungsstil, dem sie aus dem Weg gehen wollte. „Aber es war wirklich aufschlussreich. Ich habe es tatsächlich mit meinen Freundinnen geteilt.“ Es war für Kate etwas Tröstliches, die ganze Beziehung offengelegt zu bekommen. „Es war damals beruhigend für mich, denn wenn meine Gedanken mit mir durchgehen – mag er mich wirklich? Was empfindet er dafür? –, war es unglaublich, so etwas wie eine dritte Person zu haben, die die Dinge schnell aus meiner Perspektive erleben konnte.“

Kate sagt, sie würde sich geschmeichelt fühlen, wenn die Situation umgekehrt wäre. „Wenn ich ganz ehrlich bin – wow, ich fühle mich geehrt, dass ich überhaupt so im Gedächtnis bin, dass du ChatGPT auf mich aufmerksam gemacht hast“, sagt sie. „Ich würde gerne wissen, was Chat GPT gesagt hat, und dann beurteilen, wie ich mich fühle.“

Dennoch sagt sie: „Es würde mir auch wirklich das Herz brechen.“

ChatGPT hat mittlerweile so viele Informationen über ihre aktuelle Beziehung gespeichert , dass sie es „wie eine Art Therapeutin“ nutzt, sagt sie. Es kann aber auch Ängste auslösen; ChatGPT könnte eine Hypothese über das Verhalten ihres Partners aufstellen, die darauf hindeutet, dass er sich zurückzieht, obwohl er in Wirklichkeit nur mit der Arbeit beschäftigt ist. Manchmal verbringt sie Stunden damit, Informationen über ihre Beziehungen einzugeben. „Ich sage nicht, dass das immer das Gesündeste ist“, sagt sie.

Kates Therapeutin ist nicht begeistert von ihrer ChatGPT-Nutzung. „Sie sagt: ‚Kate, versprich mir, dass du das nie wieder tust. Das Letzte, was du brauchst, sind noch mehr Analysetools zur Hand. Was du brauchst, ist, dich mit deinem Unbehagen auseinanderzusetzen, es zu spüren und zu erkennen, warum du es fühlst.‘“

OpenAI-Sprecherin Taya Christianson erklärte gegenüber WIRED, ChatGPT sei als sachliches, neutrales und sicherheitsorientiertes Allzwecktool konzipiert. Es sei kein Ersatz für die Zusammenarbeit mit einem Psychologen, so Christianson. Christianson verwies WIRED auf einen Blogbeitrag, in dem von einer Zusammenarbeit zwischen dem Unternehmen und dem MIT Media Lab gesprochen wird. Ziel sei es zu untersuchen, „wie sich der Einsatz von KI, der emotionales Engagement erfordert – was wir affektive Nutzung nennen – auf das Wohlbefinden der Nutzer auswirken kann“.

Für Kate ist ChatGPT ein Resonanzboden ohne eigene Bedürfnisse, Termine, Verpflichtungen oder Probleme. Sie hat gute Freunde und eine Schwester, mit der sie eng befreundet ist, aber das ist nicht dasselbe. „Wenn ich ihnen so oft schreiben würde, wie ich ChatGPT anspreche, würde ich sie anschreien“, sagt sie. „Das wäre nicht fair. Ich muss mich nicht schämen, ChatGPT mit meinen Bitten und meinen emotionalen Bedürfnissen anzuschreien.“

Andrew, ein 36-jähriger Mann aus Seattle, wendet sich nach einem schwierigen Kapitel mit seiner Familie zunehmend an ChatGPT, um persönliche Bedürfnisse zu befriedigen. Obwohl er seine ChatGPT-Nutzung nicht „wie ein schmutziges Geheimnis“ behandelt, ist er auch nicht besonders offen darüber. „Ich hatte nicht viel Erfolg bei der Suche nach einem Therapeuten, mit dem ich gut auskommen kann“, sagt er. „Und ChatGPT ist keineswegs ein echter Ersatz für einen Therapeuten, aber um ganz ehrlich zu sein, manchmal braucht man einfach jemanden, mit dem man über etwas reden kann, das einem auf der Seele brennt.“

Andrew hatte ChatGPT zuvor für alltägliche Aufgaben wie Essensplanung oder Buchzusammenfassungen genutzt. Einen Tag vor Valentinstag machte seine damalige Freundin per SMS mit ihm Schluss. Anfangs war er sich nicht ganz sicher, ob er wirklich abserviert worden war. „Ich glaube, zwischen uns gab es einfach immer eine gewisse Kommunikationslücke“, sagt er. In der SMS stand nicht wirklich: ‚Hey, ich mache Schluss mit dir‘.“

Verwirrt tippte er die Nachricht in ChatGPT ein. „Ich dachte nur: Hey, hat sie mit mir Schluss gemacht? Kannst du mir helfen zu verstehen, was los ist?“ ChatGPT lieferte keine große Klarheit. „Ich schätze, es war vielleicht eine Bestätigung, denn es war genauso verwirrt wie ich.“

Andrew führt Gruppenchats mit engen Freunden, an die er sich normalerweise wenden würde, um seine Probleme zu besprechen, aber er wollte sie nicht belasten. „Vielleicht müssen sie Andrews Gejammer über sein beschissenes Dating-Leben nicht hören“, sagt er. „Ich nutze das, um das Gespräch erst einmal anzustoßen, bevor ich mich wirklich darauf vorbereite, rauszugehen und meine Freunde zu einer bestimmten Situation zu befragen.“

Neben den emotionalen und sozialen Herausforderungen der Problemlösung per KI wirft der Umfang vertraulicher Informationen, die manche Nutzer an ChatGPT weitergeben, ernsthafte Datenschutzbedenken auf. Sollten Chats jemals geleakt werden oder die Daten von Nutzern unethisch verwendet werden, stehen mehr als nur Passwörter oder E-Mails auf dem Spiel.

„Ich habe ehrlich darüber nachgedacht“, sagt Kate auf die Frage, warum sie dem Dienst private Details ihres Lebens anvertraut. „Oh mein Gott, wenn jemand nur meinen Verlauf sieht – er könnte verrückte Vermutungen darüber anstellen, wer ich bin, worüber ich mir Sorgen mache oder was auch immer.“

Christianson sagte WIRED, dass das Modell von ChatGPT darauf abzielt, Hilfe anzubieten und den Benutzern gleichzeitig professionelle Hilfe und Kontakte in der realen Welt zu vermitteln.

Das Unternehmen hat bereits erklärt, es setze sich für den Schutz der Privatsphäre der Menschen ein. Der Dienst bietet zwar Datenschutzeinstellungen, mit denen Nutzer festlegen können, wie viele ihrer Daten zum Trainieren von ChatGPT-Modellen verwendet werden. Allerdings werden dabei zwangsläufig große Mengen persönlicher Daten erfasst. Die von WIRED befragten Personen zeigten großes Vertrauen in Open AI, da das Programm für sie im Wesentlichen zu einem hochfunktionalen Tagebuch geworden ist.

Andrew beschreibt sein Vertrauensniveau als eine „hoffnungsvolle Handschlagvereinbarung“ mit ChatGPT.

„Es klingt jetzt vielleicht sehr traurig, Junge, aber manchmal fällt es mir leichter, einer Technologieplattform zu vertrauen“, sagt er. Er hat Situationen erlebt, in denen Menschen in seinem Umfeld seine privaten Geständnisse in Gesprächswährung verwandelten. Im Vergleich dazu ist ChatGPT eher eine verschlossene Box, eine neutrale Partei, die kein Interesse an Klatsch und Tratsch hat.

Die Vorbehalte gegenüber der Nutzung von ChatGPT als Tagebuch oder Vermittler scheinen zu schwinden. Auf TikTok zeigen Content-Ersteller den Nutzern, wie sie mithilfe von KI Textargumente analysieren , Beziehungsratschläge einholen und automatisch auf Verabredungen oder Trennungen antworten können. Kate findet diese Videos hilfreich, um neue Ideen für die Gesprächsthemen zu entwickeln.

Kürzlich sah sie auf TikTok eine Aufforderung, bei der Nutzer ihre Ziele und Wünsche beschreiben und ChatGPT bitten konnten, eine detaillierte Geschichte darüber zu schreiben, wie dieses Leben aussehen könnte. „Das hilft einem, es zu verkörpern oder zu erleben, zu durchleben, wie es aussehen könnte“, sagt sie.

„Die Häufigkeit, mit der ich es nutze, ist exponentiell gestiegen“, sagt Kate. Trotzdem versucht sie, es in ihrem Liebesleben etwas weniger zu nutzen, genau wie ihr menschlicher Therapeut es ihr empfohlen hat.

wired

wired

Ähnliche Nachrichten

Alle News
Animated ArrowAnimated ArrowAnimated Arrow