Między utopią a upadkiem: nawigacja po niejasnej środkowej przyszłości sztucznej inteligencji

Dołącz do wydarzenia, któremu liderzy przedsiębiorstw ufają od prawie dwóch dekad. VB Transform łączy ludzi budujących prawdziwą strategię AI przedsiębiorstwa. Dowiedz się więcej
W poście na blogu The Gentle Singularity , dyrektor generalny OpenAI Sam Altman przedstawił wizję niedalekiej przyszłości, w której AI cicho i życzliwie przekształca ludzkie życie. Nie będzie żadnego gwałtownego przełomu, sugeruje, tylko stały, niemal niezauważalny wzrost w kierunku obfitości. Inteligencja stanie się tak dostępna jak elektryczność. Roboty będą wykonywać użyteczne zadania w świecie rzeczywistym do 2027 roku. Odkrycia naukowe przyspieszą. A ludzkość, jeśli będzie właściwie kierowana przez ostrożne zarządzanie i dobre intencje, rozkwitnie.
To przekonująca wizja: spokojna, technokratyczna i przepełniona optymizmem. Ale stawia też głębsze pytania. Przez jaki świat musimy przejść, aby tam dotrzeć? Kto i kiedy czerpie korzyści? I co pozostaje niewypowiedziane w tym płynnym łuku postępu?
Autor literatury science fiction William Gibson przedstawia mroczniejszy scenariusz. W swojej powieści The Peripheral błyszczące technologie przyszłości są poprzedzane przez coś, co nazywa się „jackpotem” — kaskadą katastrof klimatycznych, pandemii, załamania gospodarczego i masowej śmierci w zwolnionym tempie. Technologia postępuje, ale dopiero po rozpadzie społeczeństwa. Pytanie, które stawia, nie brzmi, czy postęp następuje, ale czy cywilizacja rozwija się w tym procesie.
Istnieje argument, że AI może pomóc zapobiec katastrofom, jakie przedstawiono w The Peripheral . Jednak niepewne jest, czy AI pomoże nam uniknąć katastrof, czy też jedynie będzie nam towarzyszyć w ich trakcie. Wiara w przyszłą moc AI nie jest gwarancją wydajności, a rozwijanie możliwości technologicznych nie jest przeznaczeniem.
Pomiędzy łagodną osobliwością Altmana a jackpotem Gibsona leży bardziej niejasny środek: przyszłość, w której AI przynosi prawdziwe zyski, ale także prawdziwe przemieszczenie. Przyszłość, w której niektóre społeczności prosperują, a inne się chwieją, a nasza zdolność do zbiorowej adaptacji — nie tylko indywidualnie lub instytucjonalnie — staje się zmienną definiującą.
Inne wizje pomagają naszkicować kontury tego środkowego terenu. W thrillerze z niedalekiej przyszłości Burn In społeczeństwo jest zalewane automatyzacją, zanim jego instytucje są gotowe. Miejsca pracy znikają szybciej, niż ludzie są w stanie przekwalifikować się, wywołując niepokoje i represje. W tym filmie odnoszący sukcesy prawnik traci swoje stanowisko na rzecz agenta AI i nieszczęśliwie staje się internetowym, dyżurnym konsjerżem dla bogatych.
Naukowcy z laboratorium AI Anthropic niedawno powtórzyli ten temat: „Powinniśmy spodziewać się automatyzacji [pracy umysłowej] w ciągu najbliższych pięciu lat”. Chociaż przyczyny są złożone, istnieją oznaki, że to się zaczyna i że rynek pracy wkracza w nową fazę strukturalną , która jest mniej stabilna, mniej przewidywalna i być może mniej centralna dla sposobu, w jaki społeczeństwo dystrybuuje znaczenie i bezpieczeństwo.
Kinematografia Elysium oferuje dosadną metaforę bogaczy uciekających do orbitalnych sanktuariów z zaawansowanymi technologiami, podczas gdy zdegradowana Ziemia poniżej zmaga się z nierównymi prawami i dostępem. Kilka lat temu partner w firmie venture capital z Doliny Krzemowej powiedział mi, że obawia się, że zmierzamy w kierunku takiego scenariusza, jeśli nie będziemy sprawiedliwie rozdzielać korzyści generowanych przez AI. Te spekulacyjne światy przypominają nam, że nawet korzystne technologie mogą być społecznie niestabilne, zwłaszcza gdy ich zyski są nierówno rozdzielone.
Możemy w końcu osiągnąć coś w rodzaju wizji obfitości Altmana. Ale droga do tego raczej nie będzie gładka. Pomimo całej swojej elokwencji i spokojnego zapewnienia, jego esej jest również rodzajem prezentacji, tyleż perswazji, co przewidywania. Narracja o „łagodnej osobliwości” jest pocieszająca, a nawet kusząca, właśnie dlatego, że omija tarcie. Oferuje korzyści bezprecedensowej transformacji bez pełnego zmagania się z wstrząsami, które taka transformacja zwykle przynosi. Jak przypomina nam ponadczasowy banał: jeśli coś brzmi zbyt dobrze, żeby mogło być prawdziwe, to prawdopodobnie takie nie jest.
Nie oznacza to, że jego intencja jest nieszczera. Wręcz przeciwnie, może być szczera. Mój argument jest po prostu uznaniem, że świat jest złożonym systemem, otwartym na nieograniczone dane wejściowe, które mogą mieć nieprzewidywalne konsekwencje. Od synergistycznego szczęścia po katastrofalne wydarzenia typu Black Swan , rzadko jedna rzecz lub jedna technologia dyktuje przyszły bieg wydarzeń.
Wpływ AI na społeczeństwo już trwa. To nie tylko zmiana w zestawach umiejętności i sektorach; to transformacja w sposobie organizowania wartości, zaufania i przynależności. To jest sfera zbiorowej migracji: nie tylko ruch pracy, ale i celu.
Podczas gdy AI rekonfiguruje teren poznania , tkanina naszego świata społecznego jest po cichu wyrywana i tkana na nowo, na dobre lub na złe. Pytanie nie brzmi tylko, jak szybko poruszamy się jako społeczeństwa, ale jak rozważnie migrujemy.
Historycznie, commons odnosiło się do współdzielonych zasobów fizycznych, w tym pastwisk, łowisk i lasów, które były powiernictwem dla dobra ogółu. Jednak współczesne społeczeństwa również zależą od poznawczych commons: wspólnej domeny wiedzy, narracji, norm i instytucji, które umożliwiają różnym osobom wspólne myślenie, argumentowanie i podejmowanie decyzji przy minimalnym konflikcie.
Ta niematerialna infrastruktura składa się z edukacji publicznej, dziennikarstwa, bibliotek, rytuałów obywatelskich, a nawet powszechnie zaufanych faktów, i to ona umożliwia pluralizm. To sposób, w jaki obcy ludzie rozważają, jak społeczności się jednoczą i jak funkcjonuje demokracja. W miarę jak systemy AI zaczynają pośredniczyć w sposobie dostępu do wiedzy i kształtowania przekonań, ten wspólny teren ryzykuje pęknięciem. Niebezpieczeństwo nie polega po prostu na dezinformacji, ale na powolnej erozji samego gruntu, od którego zależy wspólne znaczenie.
Jeśli migracja poznawcza jest podróżą, to nie jest ona tylko w kierunku nowych umiejętności lub ról, ale także w kierunku nowych form kolektywnego nadawania sensu. Ale co się dzieje, gdy teren, który dzielimy, zaczyna się pod nami rozchodzić?
Przez stulecia społeczeństwa opierały się na luźno utrzymywanej wspólnej rzeczywistości: wspólnym zbiorze faktów, narracji i instytucji, które kształtują sposób, w jaki ludzie rozumieją świat i siebie nawzajem. To ten wspólny świat — nie tylko infrastruktura czy gospodarka — umożliwia pluralizm, demokrację i zaufanie społeczne. Jednak w miarę jak systemy AI coraz częściej pośredniczą w tym, w jaki sposób ludzie uzyskują dostęp do wiedzy , konstruują przekonania i poruszają się w codziennym życiu, ten wspólny grunt ulega fragmentacji.
Już teraz personalizacja na dużą skalę przekształca krajobraz informacyjny. Kanały informacyjne tworzone przez AI, dostosowane wyniki wyszukiwania i algorytmy rekomendacji subtelnie rozbijają sferę publiczną. Dwie osoby zadające to samo pytanie temu samemu chatbotowi mogą otrzymać różne odpowiedzi, częściowo ze względu na probabilistyczną naturę generatywnej AI, ale również ze względu na wcześniejsze interakcje lub wywnioskowane preferencje. Podczas gdy personalizacja od dawna jest cechą ery cyfrowej, AI turbodoładowuje swój zasięg i subtelność. Rezultatem nie są tylko bańki filtrujące , to jest dryf epistemiczny — przekształcenie wiedzy i potencjalnie prawdy.
Historyk Yuval Noah Harari wyraził pilne zaniepokojenie tą zmianą. Jego zdaniem największym zagrożeniem dla AI nie jest fizyczna krzywda ani utrata pracy, ale przejęcie emocji. Ostrzegł, że systemy AI stają się coraz bardziej biegłe w symulowaniu empatii, naśladowaniu troski i dostosowywaniu narracji do psychologii jednostki — co daje im niespotykaną moc kształtowania sposobu myślenia, odczuwania i przypisywania wartości. Niebezpieczeństwo jest ogromne, zdaniem Harariego, nie dlatego, że AI będzie kłamać, ale dlatego, że będzie się tak przekonująco łączyć, robiąc to. To nie wróży dobrze The Gentle Singularity .
W świecie, w którym pośredniczy AI, rzeczywistość sama w sobie ryzykuje, że stanie się bardziej zindywidualizowana, bardziej modułowa i mniej zbiorowo negocjowana. Może to być do zniesienia — lub nawet przydatne — w przypadku produktów konsumenckich lub rozrywki. Ale gdy rozszerzymy to na życie obywatelskie, stwarza to głębsze ryzyko. Czy nadal możemy prowadzić demokratyczny dyskurs, jeśli każdy obywatel zamieszkuje subtelnie inną mapę poznawczą? Czy nadal możemy mądrze rządzić, gdy wiedza instytucjonalna jest coraz częściej przekazywana maszynom, których dane szkoleniowe, podpowiedzi systemowe i procesy rozumowania pozostają nieprzejrzyste?
Istnieją również inne wyzwania. Treści generowane przez sztuczną inteligencję, w tym tekst, dźwięk i wideo, wkrótce staną się nieodróżnialne od produkcji ludzkiej. W miarę jak modele generatywne stają się bardziej biegłe w naśladownictwie, ciężar weryfikacji przesunie się z systemów na jednostki. Ta inwersja może podważyć zaufanie nie tylko do tego, co widzimy i słyszymy, ale także do instytucji, które kiedyś potwierdzały wspólną prawdę. Wspólna własność poznawcza staje się wówczas zanieczyszczona, mniej miejscem do rozważań, bardziej salą luster.
To nie są spekulacyjne obawy. Dezinformacja generowana przez AI komplikuje wybory, podważa dziennikarstwo i wprowadza zamieszanie w strefach konfliktu. A ponieważ coraz więcej osób polega na AI w zadaniach poznawczych — od podsumowywania wiadomości po rozwiązywanie dylematów moralnych — zdolność do wspólnego myślenia może się pogorszyć, nawet gdy narzędzia do indywidualnego myślenia stają się coraz potężniejsze.
Ten trend w kierunku rozpadu wspólnej rzeczywistości jest już bardzo zaawansowany. Aby tego uniknąć, potrzebny jest świadomy kontrprojekt: systemy, które stawiają pluralizm ponad personalizację, przejrzystość ponad wygodę i wspólne znaczenie ponad dostosowaną rzeczywistość. W naszym algorytmicznym świecie napędzanym przez konkurencję i zysk, te wybory wydają się mało prawdopodobne, przynajmniej na dużą skalę. Pytanie nie brzmi, jak szybko poruszamy się jako społeczeństwa, ani nawet czy możemy się trzymać razem, ale jak mądrze nawigujemy tą wspólną podróż.
Jeśli era sztucznej inteligencji nie doprowadzi do zjednoczonego wspólnego dobra poznawczego, lecz do rozbitego archipelagu rozproszonych jednostek i społeczności, to naszym zadaniem nie będzie odbudowa starego terytorium, lecz nauczenie się, jak mądrze żyć pośród wysp.
Ponieważ szybkość i zakres zmian przewyższają zdolność większości ludzi do adaptacji, wielu poczuje się oderwanych od rzeczywistości. Utracone zostaną miejsca pracy, a także długo utrzymywane narracje o wartości, wiedzy specjalistycznej i przynależności. Migracja poznawcza doprowadzi do powstania nowych społeczności znaczeń, z których niektóre już się tworzą, nawet jeśli mają mniej wspólnego niż w poprzednich epokach. Są to archipelagi poznawcze: społeczności, w których ludzie gromadzą się wokół wspólnych przekonań, stylów estetycznych, ideologii, zainteresowań rekreacyjnych lub potrzeb emocjonalnych. Niektóre są łagodnymi spotkaniami kreatywności, wsparcia lub celu. Inne są bardziej zamknięte i niebezpieczne, napędzane strachem, żalem lub myśleniem spiskowym.
Rozwój AI przyspieszy ten trend. Nawet jeśli dzieli ludzi poprzez precyzję algorytmów, jednocześnie pomoże ludziom odnaleźć się na całym świecie, tworząc coraz lepsze dopasowania tożsamości. Ale czyniąc to, może utrudnić utrzymanie szorstkiego, ale koniecznego tarcia pluralizmu. Lokalne więzi mogą osłabnąć. Wspólne systemy wierzeń i postrzeganie wspólnej rzeczywistości mogą ulec erozji. Demokracja, która opiera się zarówno na wspólnej rzeczywistości, jak i na dialogu deliberatywnym, może mieć trudności z utrzymaniem się.
Jak poruszać się po tym nowym terenie z mądrością, godnością i więzią? Jeśli nie możemy zapobiec fragmentacji, jak możemy żyć w niej w sposób humanitarny? Być może odpowiedź zaczyna się nie od rozwiązań, ale od nauki innego traktowania samego pytania.
Być może nie będziemy w stanie ponownie złożyć społecznych dóbr wspólnych poznawczych, jakimi kiedyś były. Centrum może nie wytrzymać, ale to nie znaczy, że musimy dryfować bez kierunku. Po drugiej stronie archipelagów zadaniem będzie nauczenie się mądrego życia na tym nowym terenie.
Może wymagać rytuałów, które nas zakotwiczą, gdy nasze narzędzia dezorientują, i społeczności, które tworzą się nie wokół czystości ideologicznej, ale wokół wspólnej odpowiedzialności. Możemy potrzebować nowych form edukacji, nie po to, aby wyprzedzić lub połączyć się z maszynami, ale po to, aby pogłębić naszą zdolność do rozeznania, kontekstu i etycznego myślenia.
Jeśli AI rozłożyła grunt pod nami, to również daje okazję, by ponownie zapytać, po co tu jesteśmy. Nie jako konsumenci postępu, ale jako zarządcy znaczenia.
Droga przed nami prawdopodobnie nie jest gładka ani łagodna. Gdy poruszamy się przez mroczny środek, być może oznaką mądrości nie jest zdolność do opanowania tego, co nadchodzi, ale przejście przez to z jasnością, odwagą i troską. Nie możemy zatrzymać postępu technologii ani zaprzeczyć pogłębiającym się pęknięciom społecznym, ale możemy wybrać pielęgnowanie przestrzeni pomiędzy.
Gary Grossman jest wiceprezesem wykonawczym ds. technologii w firmie Edelman.
Jeśli chcesz zaimponować swojemu szefowi, VB Daily ma dla Ciebie rozwiązanie. Dajemy Ci wewnętrzny wgląd w to, co firmy robią z generatywną sztuczną inteligencją, od zmian regulacyjnych po praktyczne wdrożenia, dzięki czemu możesz dzielić się spostrzeżeniami, aby uzyskać maksymalny zwrot z inwestycji.
Przeczytaj naszą Politykę prywatności
Dziękujemy za subskrypcję. Sprawdź więcej newsletterów VB tutaj .
Wystąpił błąd.

venturebeat