Czy ChatGPT naprawdę może pomóc Ci znaleźć miłość?

Jenny nie zadzwoniła do swojej najlepszej przyjaciółki, kiedy jej były się odezwał. Nie stworzyła listy zalet i wad aplikacji Notatki. Zamiast tego otworzyła ChatGPT.
Jej były – ten, z którym spotykała się krótko, a potem utrzymywała kontakt jako zalotna, emocjonalnie gęsta „przyjaciółka”, aż w końcu się rozstali – napisał: „Oczywiście, to niespodziewane, ale wpadłaś mi na myśl. Jak się masz? U mnie wszystko w porządku!”. Młodsza Jenny, teraz 37-letnia, być może odpisała w kilka sekund, ale teraz nie była pewna, co czuć. Zdezorientowana? Zaszczycona? Zła? Zrobiła więc to, co robi coraz więcej kobiet: opowiedziała o sytuacji chatbotowi.
„Dałam z siebie wszystko” – mówi edukatorka i trenerka fitness z Brooklynu. „Co się między nami wydarzyło, co zrobił, jaki był”. Odpowiedź bota była beznamiętna, ale dziwnie budująca. Nie napisał: „On jest narcyzem, zablokuj go”. Zamiast tego przeanalizował nową wiadomość od byłego jako luźną, bez ryzyka, „testującą grunt”, nie przepraszającą, ale też nie ignorującą przeszłości.
Następnie bot zapytał ją: „Czy kusi cię, żeby odpowiedzieć? Czy czujesz się neutralna, ciepła, poirytowana lub niepewna? Czy ponowne nawiązanie kontaktu byłoby jasne, czy mylące? Gdybyś odpowiedziała, czy tym razem mogłoby być inaczej?”. Przez godzinę bot badał jej motywy, wyjaśniał jej uczucia i oferował wskazówki dotyczące wyznaczania granic. Jenny chciała zapytać swojego byłego, czego szuka, kontaktując się z nią, a nie wznawiać rozmowę w „niejasny” sposób.
Bot spisał jej myśli: „Hej – przyznaję, że nie spodziewałem się od ciebie wiadomości. Ciekawi mnie, co skłoniło cię do kontaktu. Nie chcę od nowa otwierać niczego niejasnego, więc jeśli to tylko luźne „cześć”, to „cześć”. Ale jeśli odzywasz się z bardziej konkretnym powodem, chętnie go wysłucham…”
Czy to było zbyt intensywne? Jenny się martwiła. Czy po prostu bezpośrednie?
Ona i bot dopracowali to jeszcze bardziej, aż odpowiedź bardziej do niej pasowała: „Cześć! Zaskoczona, że się odezwałaś – mam się świetnie, właśnie wróciłam z podróży i wchodzę w tryb treningu do maratonu. Co skłoniło cię do kontaktu?”
Jenny była zadowolona z wiadomości, ale chciała poczekać chwilę przed jej wysłaniem, co bot zaakceptował. „Nie ignorujesz go, ale też nie od razu odpowiadasz, dając sobie przestrzeń do wyboru, kiedy (i czy w ogóle) się zaangażować, zamiast reagować” – powiedział ChatGPT.
Ta rada nie tylko rozjaśniła jej sytuację, ale „pomogła mi zrozumieć, co tak naprawdę musiałabym od niego usłyszeć, żeby w ogóle rozważyć ponowne nawiązanie kontaktu” – mówi. Jenny dodaje, że bez wymiany zdań z botem „prawdopodobnie odpowiedziałabym po prostu w jakiś pogawędkowy i przyjazny sposób. A kiedy już zacznę się angażować, trudniej mi przestać”.
ChatGPT pomógł jej wyznaczyć granice i się ich trzymać.

Jenny nie jest sama. Cichy, nowy Zjawisko nabiera kształtów: kobiety używają chatbotów nie tylko do optymalizacji kalendarzy czy list zakupów, ale także do zrozumienia swojego życia emocjonalnego. Jedna z użytkowniczek Reddita opisała zastąpienie męża w trakcie rozmowy botem. „Kiedy podczas kolacji przewrócił oczami i sięgnął po telefon, sięgnęłam po swój i kontynuowałam rozmowę – z ChatGPT”. Bot, jak powiedziała, oferował ciepło, ciekawość i podstawową dostępność emocjonalną. „Zrozumiałam, że wszystko, co mówi chatbot, to wszystko, czego kiedykolwiek pragnęłam u partnera”. Temat jej posta? „Rozwiodłabym się i zostawiłabym męża dla ChatGPT, gdyby tylko można go było umieścić w fizycznym ciele”.
Kiedy kobiety nawiązują do swoich prywatnych rozmów z chatbotami, często przyjmują żartobliwy ton, ale implikacje są poważne. Marisa Cohen, badaczka związków oraz terapeutka rodzinna i małżeńska, mówi, że kobiety zwracają się ku sztucznej inteligencji nie dlatego, że wierzą w jej ludzką naturę, ale dlatego, że oferuje ona coś, czego wielu ludzi im nie daje: uwagę i empatię. Nie tylko konsultują się z tymi botami. Rozmawiają z nimi. Jak zauważyła Cohen, opowiadają, wyrzucają z siebie żale, rozpakowują, a nawet antropomorfizują bota, zazwyczaj mężczyznę, nadając mu imię. Kłócą się z nim i płaczą, a często słuchają go bardziej niż przyjaciela czy terapeuty, ponieważ jest zawsze dostępny, cierpliwy i refleksyjny. Powierzają autorefleksję partnerowi, który nigdy się nie nudzi ani nie skupia na sobie.
To nie jest obszar Her ani Ex Machina . Nikt nie zakochuje się w głosie systemu. (Ale powiedzmy, że niektórzy przesunęliby w prawo, gdyby miał tors). Emocjonalna więź jest prawdziwa. Dla kobiet, które w ten sposób korzystają z botów, tradycyjne systemy wsparcia często wydają się niedostępne, a partnerzy lekceważą ich obawy. W takich sytuacjach cyfrowy słuchacz może być jak koło ratunkowe.
Dla Cohena zwrot w stronę towarzystwa opartego na sztucznej inteligencji nie jest zaskakujący. Kobiety są zmęczone dźwiganiem całego ciężaru emocjonalnego w pojedynkę, w tym rozumieniem nie tylko własnych uczuć, ale także uczuć partnera, przyjaciół i podtekstów każdej wiadomości tekstowej. Ta dynamika nasiliła się wraz z izolacją spowodowaną pandemią, kiedy trudniej było nawiązać kontakt społeczny, a następnie wraz z pojawieniem się chatbotów, takich jak ChatGPT pod koniec 2022 roku, oferujących nowe ujście w momencie, gdy ludzie najbardziej tego potrzebowali.
„Kobiety zwracają się ku sztucznej inteligencji nie dlatego, że uważają ją za ludzką, ale dlatego, że oferuje ona coś, czego wielu ludzi im nie daje: uwagę i empatię”.
To obciążenie uczyniło z kobiet również główny rynek. Blay Whitby, etyk sztucznej inteligencji z Uniwersytetu Sussex, który pisał obszernie o etyce relacji człowiek-maszyna, w tym w książce „ Do You Want a Robot Lover?”, twierdzi, że te „boty są w całości własnością organizacji komercyjnych i przez nie zarządzane”. Kobiety mogą zwracać się do chatbotów ze względu na swoje emocjonalne dostrojenie, ale ta sama podatność czyni je celem ataków ze strony „gigantycznych firm technologicznych”. „Realistycznie rzecz biorąc, kobiety przodują w tej dziedzinie” – mówi – „ale stanowią również podatny na eksploatację rynek, [ponieważ] często są bardziej świadome [swojego życia wewnętrznego] i szybciej szukają wsparcia”. Im większe napięcie emocjonalne w nich tkwi, tym więcej firm może je atakować i czerpać zyski z ich słabości.

Kiedy przestał do niej pisać, Michelle, haitańska modelka i aktorka, była spokojna. Nie płakała ani nie wpadała w panikę. Randka przebiegła pomyślnie, a przynajmniej tak jej się wydawało. Świetny kontakt wzrokowy, długi pożegnalny uścisk, a nawet wiadomość po randce o treści: „Świetnie się bawiliśmy”. A potem? Nic. Żadnego dalszego ciągu. Żadnego „Zróbmy to jeszcze raz”. Tylko cisza. Zamiast się wściekać lub wysyłać pełne wątpliwości SMS-y do dziewczyn, Michelle przekazała całą sytuację do ChatGPT. Wpisała streszczenie: o czym rozmawiali, jak zakończył się wieczór, ile czasu minęło od randki. Potem zadała proste, brutalnie bezbronne pytanie: „Czy zrobiłam coś złego?”
To, co wróciło, nie było magiczne. Ale pomogło. „Ghosting niekoniecznie świadczy o twojej wartości” – napisał bot. „Czasami ludzie izolują się z powodów, które mają więcej wspólnego z nimi niż z osobą, którą poznali”. Nie było to szczególnie oryginalne, ale właśnie tego potrzebowała usłyszeć, i przekazała to bez niejasnych zapewnień czy źle rozumianej surowej miłości, która często pochodzi od przyjaciół. „Po prostu wydawało się szczere” – mówi 32-latka. „Nikt nie próbował mnie pocieszyć, po prostu pomógł mi to zrozumieć”.
Jednak pomimo tak pozytywnych, anegdotycznych doświadczeń, niektórzy badacze zastanawiają się, co tracimy, przerzucając na maszyny bolesne, emocjonalne chwile. Etyczka Shannon Vallor nie martwi się, że ludzie zwracają się ku sztucznej inteligencji. Martwi ją raczej to, że mogą zacząć ją preferować. „Nie dostajesz partnera emocjonalnego” – mówi. „[To] odbijająca powierzchnia wykonana z danych językowych, a nie ze szkła. Ale to i tak lustro, precyzyjnie dostrojone, by cię utwierdzać i pocieszać”.
Vallor jest profesorem Baillie Gifford Chair in Ethics of Data and AI na Uniwersytecie Edynburskim i autorką książki The AI Mirror: How to Reclaim Our Humanity in an Age of Machine Thinking . Uważa ona, że powiernicy chatbotów to punkt zwrotny, a nie nowość. „Istnieje realne ryzyko, że sztuczna inteligencja sprawi, że podstawowe umiejętności moralne — takie jak cierpliwość, odwaga i uczciwość emocjonalna — będą wydawać się przestarzałe” — mówi. „Rozwijamy te cechy, zmagając się z ludzkim bałaganem: niezręcznymi ciszami, nieporozumieniami, momentami, w których łatwiej byłoby odejść. Teraz kusi nas, aby ominąć to wszystko i pozwolić sztucznej inteligencji zająć się trudnymi sprawami za nas”. Te same cechy, które sprawiają, że boty są kojące — ich neutralność, stałość i brak ego — sprawiają również, że są puste.
„Nie jesteśmy zakochani w naszych botach. Nie do końca. Ale coraz bardziej polegamy na nich, żeby pomogły nam przetrwać te aspekty miłości i życia, których nie potrafimy nazwać”.
Sherry Turkle, autorka książek Alone Together: Why We Expect More from Technology and Less from Each Other i Reclaiming Conversation: The Power of Talk in a Digital Age , od ponad czterech dekad bada psychologiczny wpływ technologii. Uważa, że bezproblemowe wsparcie emocjonalne to nie postęp, ale erozja umiejętności interpersonalnych i wewnętrznej struktury. „Tracimy naszą zdolność do samotności, mając nieustanną obecność w naszych telefonach” — mówi. „Samotność to miejsce, w którym się zbieramy, poznajemy siebie. To punkt wyjścia do intymności. Tracimy smak wrażliwości. Ale bez wrażliwości nie ma intymności, przynajmniej nie z ludzkimi partnerami”. Ta strata przerywa emocjonalne rusztowanie, na którym opiera się intymność: zdolność do bycia jednocześnie odsłoniętym i odpornym. Zwrócenie się do maszyn, zwłaszcza w momentach, gdy moglibyśmy zwrócić się do ludzi, odcina nas od trudnej, ale koniecznej praktyki bycia znanym.
Turkle, profesor MIT i dyrektor założyciel inicjatywy „Technologia i Ja”, opisuje to odchylenie jako narastający dyskomfort związany z samym dyskomfortem. Zamiast odrzucać, zbywamy. Zamiast dyskutować, piszemy wiadomości prywatne. Zamiast siedzieć w niepewności, przesuwamy palcem po ekranie. W tym kontekście rozprzestrzenianie się chatbotów nie wydaje się destrukcyjne – wręcz przeciwnie, wydaje się logiczne. „Wszystko to sprawia, że chatboty wydają się bardziej rozsądne, jakby były częścią czegoś większego, pozytywnego i kulturowo usankcjonowanego” – mówi. „W ten sposób przyzwyczajamy się do myśli, że ludzie mają swoje nieporozumienia online. ... Przyzwyczajamy się do internetowych rozstań, do internetowych rozmów z naszymi dziećmi, przyjaciółmi, kochankami i partnerami, gdy dzieje się coś napiętego. Tracimy zdolność do empatii i negocjacji, które sprzyjają rozmowom twarzą w twarz”.
Cohen, naukowiec zajmujący się relacjami międzyludzkimi, twierdzi, że boty zapewniają natychmiastową gratyfikację i spersonalizowane doświadczenie, ponieważ sztuczna inteligencja „uczy się” użytkownika z czasem, dzięki czemu interakcje wydają się spersonalizowane i „realistyczne”. To tak, jak outsourcing emocjonalny. Ale to także powstrzymywanie emocji .
Dla niektórych kobiet ta powściągliwość to ulga. Nie muszą się minimalizować, żeby nie wyjść na „szalone” za to, że po raz piąty pytają przyjaciółki, czy niejasny tekst cokolwiek znaczy. Bot bierze na siebie ciężar powtarzania. Oferuje przestrzeń, w której uczucia nie są patologizowane ani lekceważone – są po prostu analizowane .
Pomimo hiperłączności współczesnego życia, wiele osób wciąż nie ma dostępu do bezbłędnego wsparcia emocjonalnego. Przyjaciele są wypaleni. Terapeuci mają listy oczekujących. Rozmowy grupowe niosą ze sobą pewien bagaż doświadczeń. „W niektórych przypadkach osoby mogły otrzymać od swojego systemu wsparcia informację zwrotną, że dzielą się zbyt wieloma lub zbyt często swoimi doświadczeniami” – mówi Cohen – „co może wpływać na ich przyszłą chęć dzielenia się i poziom komfortu w tym procesie. Na ludzi wpływają również doświadczenia związane ze wspieraniem innych w ich życiu, więc jeśli spotkali się z sytuacjami, w których odczuli emocjonalny ciężar wspierania innych, mogą być bardziej świadomi, jak ich dzielenie się może wpłynąć na ich przyjaciół”.
To właśnie jest to ciche napięcie. Kobiety dążą do bycia bardziej racjonalnymi, zrównoważonymi i świadomymi siebie – ale robią to w systemie, który nie potrafi czuć, nie potrafi się bronić i nie potrafi odzwierciedlić chaosu bycia człowiekiem. Otrzymują emocjonalną jasność bez emocjonalnej struktury. Ta nieobecność ma znaczenie. Choć chatboty mogą zapewnić stabilność i spokój, nie mogą zastąpić głębszego pożywienia, które pochodzi z bezpośredniej wymiany emocjonalnej. Kobiety już to wiedzą: niedawne badanie Pew wykazało, że większość Amerykanów uważa, że grupy społeczne złożone wyłącznie z kobiet przynoszą korzyści dobrostanowi kobiet i całemu społeczeństwu. To przypomnienie, że prawdziwy rozwój emocjonalny nadal zależy od prawdziwego kontaktu z ludźmi.
Turkle dostrzega głębsze ryzyko, ale nie odrzuca tego zjawiska całkowicie. Rozumie jego atrakcyjność, zwłaszcza dla osób, które czują się odizolowane lub nadmiernie obciążone emocjonalnie. Stawia jednak wyraźną granicę: „Istnieje branża, która promuje pozytywne role” – mówi. „Moim zadaniem jest pomoc ludziom w wytyczeniu granicy. Jeśli zwracasz się do chatbota, gdy mógłbyś rozmawiać z człowiekiem, zatrzymaj się i zastanów, co tracisz na pozornej wygodzie”.
To ostrzeżenie ma sens. Niedawny raport Brookings zauważa, że obecnie główne zastosowania sztucznej inteligencji nie są już związane z zadaniami, ale z emocjami. W czasach rekordowej samotności i mniejszej liczby bliskich przyjaźni ludzie zwracają się ku sztucznej inteligencji nie tylko ze względu na wydajność, ale także komfort. Turkle argumentuje, że branża jest w pełni za normalizacją towarzystwa AI, wmawiając nam, że to wybór, którego chcemy. Budujemy więzi, ponieważ jesteśmy zaprogramowani na kontakt, nawet gdy to, z czym się łączymy, nie odwzajemnia naszej miłości. Oto paradoks towarzystwa AI: to, co wydaje się intymnością, może w rzeczywistości być izolacją. Nie łączysz się z kimś nowym; karmisz swój światopogląd systemem, który go wygładza i oddaje.

Jenny nie wróciła do bota po więcej porad dotyczących swojego byłego. Ale nie zapomniała też o wymianie zdań. „Nie mogę przestać się zastanawiać: czy gdyby ChatGPT nie powtarzał rzeczy, które już słyszałam, powiedzmy, od mojego terapeuty, byłabym tak otwarta?” Jenny nie jest obca pracy nad sobą. Od lat ćwiczy jogę, chodziła do terapeutów, czytała o teorii przywiązania i wzorcach relacji . Bot nie mówił jej niczego radykalnie nowego. Ale wydobywał to, co już wiedziała, dokładnie wtedy, gdy najbardziej potrzebowała tego usłyszeć. „Dla mnie było to kolejne narzędzie w dość obszernym zestawie. Ale myślę o ludziach, którzy mogą tego nie mieć — którzy nie mają bliskich przyjaciół lub dostępu do terapii — i zastanawiam się, jak takie rady brzmią, kiedy słyszysz je po raz pierwszy”.
Ta ciekawość prowadzi z powrotem do szerszego pytania: Kim jest kobieta, która zwraca się do sztucznej inteligencji o wsparcie emocjonalne? Kimś, kto ma już rozwiniętą inteligencję emocjonalną i szuka neutralnego odbicia? A może kimś, kto wykorzystuje bota jako pierwszy krok do zrozumienia siebie? Whitby obawia się, że nawet dobrze przemyślane użycie może zatrzeć tę granicę. „Przeprowadzamy eksperyment” – mówi. Technologia ewoluuje szybciej niż nasze zrozumienie jej długoterminowych skutków emocjonalnych, a obecnie polegamy bardziej na instynkcie niż na dowodach. Vallor postrzega to jako część pokoleniowej obsesji na punkcie łatwości: „Dzisiejsza kultura technologiczna fetyszyzuje wydajność, szybkość, optymalizację: ideał życia bez tarcia. Ale dlaczego? Po co? Dlaczego ścigasz się, by trafić do grobu, nie doświadczając żadnych uczuć, wysiłku ani zmagań po drodze? [To] jak być martwym, ale nadal płacić podatki”.
Nie jesteśmy zakochani w naszych botach. Nie do końca. Ale coraz częściej polegamy na nich, aby pomogły nam przetrwać te aspekty miłości i życia, których nie potrafimy nazwać. Jest w tym cicha moc, ale i cena. Bo jasność bez tarcia jest uwodzicielska. Daje poczucie wglądu. Ale czasami to po prostu łagodniejsza wersja naszych własnych uprzedzeń, przekazywana głosem, który nigdy nie drgnie, nigdy się nie kłóci, nigdy nie prosi o nic w zamian. To wsparcie emocjonalne bez ryzyka. Zrozumienie bez wrażliwości. Komfort bez więzi.
Może to po prostu kolejny rodzaj samopomocy. A może to początek cichej zmiany w sposobie, w jaki uczymy się odczuwać, z oprogramowaniem jako naszym drugim mózgiem, naszym zapasowym terapeutą, naszym cyfrowym przyjacielem, który nigdy nas nie zostawia bez odpowiedzi. Nie ma prostej odpowiedzi. Po prostu nowy rodzaj rozmowy. Taką, którą prowadzimy z maszynami, a może, co za tym idzie, z samym sobą.
elle




