Wybierz język

Polish

Down Icon

Wybierz kraj

Mexico

Down Icon

Podział w „wielkiej technologii” dla przyszłości AI

Podział w „wielkiej technologii” dla przyszłości AI

Na okładce biznesplanu dla DeepMind , laboratorium sztucznej inteligencji (AI) założonego w 2010 roku przez Demisa Hassabisa, Mustafę Suleymana i Shane'a Legga , napisali jedno zdanie: „Stworzyć pierwszą na świecie sztuczną inteligencję ogólną”.

Jego pogląd, który pozostaje aktualny do dziś, jest taki, że tradycyjne technologie AI były zbyt „ograniczone”. Mogły działać znakomicie, ale dopiero po tym, jak ludzie pracowicie je wyszkolili, korzystając z dużych baz danych. To sprawiło, że AI była doskonała w takich zadaniach, jak analiza arkuszy kalkulacyjnych czy gra w szachy. Ale sztuczna inteligencja ogólna, znana jako AGI , miała potencjał, by pójść jeszcze dalej.

Piętnaście lat później prezesi firm technologicznych są przekonani, że AI to kolejna wielka rzecz i są pełni uznania dla jej potencjału. Wśród nich jest Sam Altman , prezes OpenAI . Według niego „AI może pomóc ludzkości się rozwijać, zwiększyć obfitość, przyspieszyć globalną gospodarkę i przyczynić się do odkrycia nowej wiedzy naukowej”.

Hassabis, którego firma DeepMind połączyła się z Google , stając się jednym z najbardziej wpływowych laboratoriów sztucznej inteligencji na świecie, twierdzi, że sztuczna inteligencja ma potencjał, aby rozwiązać globalne problemy, takie jak leczenie chorób, pomaganie ludziom żyć dłużej i zdrowiej, a także znajdowanie nowych źródeł energii.

Dario Amodei, dyrektor generalny Anthropic , który woli używać określenia „power AI” do opisu AGI, uważa, że ​​prawdopodobnie będzie ona „mądrzejsza niż laureat Nagrody Nobla w swojej najbardziej istotnej dziedzinie” i opisał ją jako „geniuszowski naród w centrum danych”.

Yann LeCun, główny naukowiec zajmujący się sztuczną inteligencją w Meta i uważany za jednego z „ojców chrzestnych” tej technologii, woli używać terminu sztuczna superinteligencja (ASI) , ponieważ ludzka inteligencja nie jest tak naprawdę tak ogólna: „Jesteśmy bardzo wyspecjalizowani, a komputery potrafią rozwiązywać pewne zadania znacznie lepiej niż my”.

Brak konsensusu

Niezależnie od ostatecznie wybranego terminu, coraz częściej mówi się o technologii, która kiedyś była tylko science fiction, a teraz może stać się rzeczywistością. Ale tak jak Dolina Krzemowa nie może się zgodzić co do tego, czym dokładnie jest AGI lub SIA, tak nie ma konsensusu co do tego, jak będzie wyglądać, jeśli lub kiedy stanie się rzeczywistością.

Kiedy DeepMind wymyślił ten termin, oświadczył, że AGI to „AI, która jest co najmniej tak zdolna jak wykwalifikowany dorosły w większości zadań poznawczych”. Jednak ta definicja rodzi więcej pytań: Kim jest wykwalifikowany dorosły? Skąd wiemy, kiedy wykonaliśmy większość zadań poznawczych? Czym są te zadania?

„Dla niektórych AGI jest celem naukowym. Dla innych religią. A dla niektórych terminem marketingowym” — zauważa François Chollet, były inżynier oprogramowania w Google. W związku z tym istnieje szeroki zakres szacunków dotyczących tego, kiedy może się pojawić. Elon Musk uważa, że ​​technologia AI, która jest inteligentniejsza od ludzi, stanie się rzeczywistością w tym roku. Amodei z Anthropic podaje datę 2026. A Altman uważa, że ​​pojawi się ona za prezydentury Donalda Trumpa.

OpenAI i Anthropic pozyskały miliardy dolarów od inwestorów na rozwój technologii i są wspierane przez plany Białego Domu dotyczące wstrzymania regulacji AI, aby wyprzedzić Chiny. OpenAI ma również poparcie Trumpa dla inwestowania w centra danych w Stanach Zjednoczonych i na Bliskim Wschodzie.

W prezentacjach firm w pierwszym kwartale 2025 r. IAG był wymieniany o 53% częściej niż w analogicznym okresie roku poprzedniego.

Ale zdefiniowanie tego zagadnienia jest kluczowe dla zrozumienia jego konsekwencji i tego, czy powinno być traktowane priorytetowo.

UE nie wykluczyła zawieszenia swojego prawa dotyczącego AI, częściowo z obawy przed utrudnieniem jego rozwoju. Brytyjski Instytut Bezpieczeństwa Sztucznej Inteligencji próbuje zrozumieć, czym jest AI, aby zaplanować swoją politykę bezpieczeństwa i badania.

Nawet w najogólniejszej definicji AGI znacznie przyspieszyłaby obliczenia, ale przy bardzo wysokich kosztach finansowych i środowiskowych. A jeśli inżynierom uda się stworzyć tę technologię, jak możemy zagwarantować, że będzie ona wykorzystywana w sposób sprawiedliwy i uczciwy?

Czym tak naprawdę jest IAG?

W przypadku OpenAI jest to technologia, której można używać do wykonywania pracy przynoszącej korzyści ekonomiczne. „Próbujemy opracować wysoce autonomiczny system, który może przewyższyć ludzi w wielu zadaniach o wartości ekonomicznej” — mówi Mark Chen, dyrektor ds. badań w firmie. Według niego kluczową cechą jest ogólność, zdolność do wykonywania zadań w szerokiej gamie dziedzin: „Powinien być dość autonomiczny i nie wymagać dużej pomocy w wykonywaniu swoich zadań. AI będzie w stanie szybko ożywić to, co mamy w głowach, i ma potencjał, aby pomóc ludziom tworzyć nie tylko obrazy lub tekst, ale całe aplikacje”.

Krytycy twierdzą jednak, że ta definicja nie opisuje prawdziwie inteligentnego systemu. „To po prostu automatyzacja , coś, co robimy od dziesięcioleci” — mówi Chollet, były inżynier Google.

Legg z DeepMind ma odmienny pogląd: „Myślę, że typowa ludzka wydajność jest najbardziej naturalnym, praktycznym i użytecznym sposobem na zdefiniowanie minimalnych wymagań, aby AI mogła być uznana za AGI. Dużym problemem wielu definicji AGI jest to, że nie określają one wystarczająco jasno, co system AI musi być w stanie zrobić, aby mógł być uznany za AGI”.

W przypadku DeepMind musi być „tak samo zdolny jak doświadczony dorosły do ​​wykonywania większości zadań poznawczych. Jeśli ludzie mogą rutynowo wykonywać zadania poznawcze, to sztuczna inteligencja musi być w stanie to zrobić, aby być SI” — zauważa Legg.

Laboratorium należące do Google'a ustanowiło pięć poziomów możliwości AI. Modele AI, takie jak ChatGPT OpenAI, Gemini Google i Llama Meta, osiągnęłyby tylko poziom pierwszy, czyli „rozwijającą się AI”. Jak dotąd żaden ogólny model nie osiągnął poziomu drugiego , co pozwoliłoby mu prześcignąć co najmniej 50. percentyl wykwalifikowanych dorosłych, mówi Allan Dafoe, dyrektor ds. bezpieczeństwa i zarządzania granicami w DeepMind.

Poziom trzeci wymagałby, aby model był tak dobry jak co najmniej 90. percentyl wykwalifikowanych dorosłych, poziom czwarty wymagałby 99. percentyla, a poziom piąty, czyli nadludzka sztuczna inteligencja, przewyższyłaby 100% ludzi.

Jaka jest mapa drogowa?

Jeśli nie ma zgody co do celu, nic dziwnego, że istnieje wiele teorii na temat najlepszej drogi do AI. OpenAI i Anthropic twierdzą, że tworzone przez nich modele językowe reprezentują najlepszą drogę. Ich pomysł polega na tym, że im więcej danych i mocy obliczeniowej zostanie dostarczone do modelu, tym będzie on „mądrzejszy”.

Startup stojący za ChatGPT właśnie zaprezentował swój nowy model „rozumowania”, o3, który rozwiązuje bardziej złożone zadania kodowania, matematyki i rozpoznawania obrazów. Niektórzy eksperci, tacy jak ekonomista Tyler Cowen, uważają, że jest to technologia najbliższa AGI.

Dla Chena kolejnym krokiem w kierunku AI byłoby stworzenie modeli zdolnych do niezależnego i niezawodnego działania. Narzędzia AI mogłyby wówczas generować innowacje i ostatecznie działać jako organizacje podobne do dużych struktur ludzi pracujących razem.

Kolejną kluczową cechą jest samodoskonalenie . „To system, który może się sam udoskonalać, pisać własny kod i generować kolejną wersję samego siebie , co czyni go jeszcze lepszym” — dodaje Chen. Krytycy twierdzą jednak, że modele językowe mają niezliczone słabości. Nadal są bardzo niedokładne, wymyślają rzeczy i tak naprawdę nie „myślą”, jedynie przewidują następne prawdopodobne słowo w zdaniu.

Według szeroko omawianego artykułu badaczy Apple, nowa generacja modeli rozumowania jedynie tworzy iluzję myślenia, a ich dokładność znacznie spada, gdy stawia się im złożone zadania. Niektórzy eksperci twierdzą również, że sam język nie jest w stanie uchwycić wszystkich wymiarów inteligencji i że należy opracować szersze modele, aby uwzględnić więcej wymiarów.

LeCun z Meta tworzy „modele świata”, które próbują ująć fizykę naszego świata, ucząc się z wideo i danych robotycznych, a nie z języka. Twierdzi, że potrzebujemy bardziej holistycznego zrozumienia świata, aby stworzyć lepszą sztuczną inteligencję.

Możliwe problemy

Branży AI kończą się dane, ponieważ większość z nich pochodzi z Internetu. Mimo to Altman stwierdził w grudniu, że „AI stanie się rzeczywistością szybciej, niż większość ludzi myśli, i będzie miało znacznie mniejsze znaczenie, niż ludzie myślą. Naszym kolejnym celem jest przygotowanie OpenAI na to, co nadejdzie: superinteligencję”.

Według krytyków IAG ta różnorodność opinii uwypukla prawdziwe motywacje firm. Nick Frost , współzałożyciel startupu AI Cohere , uważa, że ​​„IAG to w większości bańka, która zbiera kapitał z tego pomysłu”. A Antoine Moyroud, partner w Lightspeed Ventures, firmie venture capital, która zainwestowała w takie firmy jak Anthropic i Mistral, zauważa , że ​​„z IAG inwestorzy mają nie tylko nadzieję na setki milionów dolarów przychodu, ale także perspektywę przekształcenia sposobu generowania PKB, potencjalnie generując biliony dolarów w wynikach. Dlatego ludzie są skłonni podjąć ryzyko z IAG”.

Inne problemy

Coraz więcej osób zwraca się do chatbotów AI w celu nawiązania przyjaźni, przyjaźni, a nawet terapii . Jest to jednak możliwe tylko dzięki ogromnej ilości pracy ludzkiej, która pozwala chatbotom AI wydawać się mądrzejszymi — lub bardziej responsywnymi — niż są w rzeczywistości.

Niektórzy zastanawiają się, czy AGI będzie czymś dobrym. „Biologia, psychologia i edukacja nie zrozumiały jeszcze w pełni inteligencji” — mówi Margaret Mitchell, dyrektor ds. etyki w firmie Hugging Face zajmującej się sztuczną inteligencją typu open source i współautorka artykułu, w którym twierdzi, że AGI nie powinno być uważane za Gwiazdę Północną. Eksperci twierdzą, że ta potrzeba rozwijania pewnego rodzaju technologii koncentruje władzę i bogactwo w niewielkiej mniejszości ludzi i wykorzystuje artystów i twórców, których własność intelektualna trafia do ogromnych zestawów danych bez ich zgody i bez wynagrodzenia.

AGI ma również ogromny ślad środowiskowy, ponieważ coraz potężniejsze modele wymagają ton wody i energii do trenowania i działania w ogromnych centrach danych. Zwiększa również zużycie wysoce zanieczyszczających produktów, takich jak ropa i gaz.

Podnosi również kwestie etyczne i potencjalne szkody społeczne. W wyścigu o rozwój technologii i czerpanie korzyści z jej zalet ekonomicznych rządy zaniedbują regulacje, które zapewniałyby podstawową ochronę przed technologiami AI, takimi jak stronniczość algorytmiczna i dyskryminacja.

Istnieje również wpływowa mniejszość — do której zaliczają się naukowcy uważani za ojców założycieli współczesnej sztucznej inteligencji, tacy jak Yoshua Bengio i Geoffrey Hinton — którzy ostrzegają, że jeśli AGI nie zostanie powstrzymana, może doprowadzić do wyginięcia gatunku ludzkiego.

Jednym z zagrożeń związanych z ideą „AGI za wszelką cenę” jest to, że może ona sprzyjać złej nauce , mówi Mitchell. Inne, bardziej ugruntowane przedmioty, takie jak chemia i fizyka, mają metody naukowe, które pozwalają na rygorystyczne testy. Jednak informatyka jest o wiele nowszą i bardziej zorientowaną na inżynierię dziedziną, z tendencją do wysuwania „wspaniałych, dalekosiężnych twierdzeń, które w rzeczywistości nie są poparte badaniami”. A Frosst z Cohere ostrzega, że ​​„politycy i firmy mają obowiązek zastanowić się nad rzeczywistymi ryzykami związanymi z potężnymi technologiami”.

Ale tworzenie niezawodnych sposobów mierzenia i oceniania technologii AI w świecie rzeczywistym jest utrudnione przez obsesję branży na punkcie AI. „Dopóki tego nie osiągniemy, AI będzie niczym więcej niż iluzją i słowem kluczowym” – podsumowuje Mitchell.

© The Financial Times Limited [2025]. Wszelkie prawa zastrzeżone. FT i Financial Times są zarejestrowanymi znakami towarowymi Financial Times Limited. Redystrybucja, kopiowanie lub modyfikacja są zabronione. EXPANSIÓN ponosi wyłączną odpowiedzialność za to tłumaczenie, a Financial Times Limited nie ponosi odpowiedzialności za jego dokładność.

Expansion

Expansion

Podobne wiadomości

Wszystkie wiadomości
Animated ArrowAnimated ArrowAnimated Arrow