Разделение в «больших технологиях» ради будущего ИИ

На обложке своего бизнес-плана для DeepMind , лаборатории искусственного интеллекта (ИИ), основанной в 2010 году Демисом Хассабисом, Мустафой Сулейманом и Шейном Леггом , они написали одно предложение: «Создать первый в мире общий искусственный интеллект».
Его точка зрения, которая остается актуальной и сегодня, заключается в том, что традиционные технологии ИИ были слишком «ограничены». Они могли бы блестяще работать, но только после того, как люди кропотливо обучили бы их с использованием больших баз данных. Это сделало ИИ превосходным в таких задачах, как анализ электронных таблиц или игра в шахматы. Но искусственный общий интеллект, известный как AGI , имел потенциал пойти еще дальше.
Пятнадцать лет спустя руководители технологических компаний убеждены, что ИИ — это следующая большая вещь , и полны похвал за его потенциал. Среди них — Сэм Альтман , генеральный директор OpenAI . По его словам, «ИИ может помочь человечеству расти, увеличивать изобилие, ускорять мировую экономику и способствовать открытию новых научных знаний».
Хассабис, чья компания DeepMind объединилась с Google и стала одной из самых влиятельных в мире лабораторий искусственного интеллекта, утверждает, что ИИ может решить глобальные проблемы, такие как лечение болезней, помощь людям в более здоровой и долгой жизни, а также поиск новых источников энергии.
Генеральный директор Anthropic Дарио Амодеи , который предпочитает использовать фразу «мощный ИИ» для описания ИИ, считает, что он, скорее всего, будет «умнее лауреата Нобелевской премии в своей самой важной области», и называет его «гениальной нацией в центре обработки данных».
Ян Лекун, главный специалист по искусственному интеллекту компании Meta и один из «крестных отцов» этой технологии, предпочитает использовать термин «искусственный суперинтеллект» (ИСИ) , поскольку человеческий интеллект на самом деле не так уж универсален: «Мы очень специализированы, и компьютеры могут решать определенные задачи гораздо лучше, чем мы».
Отсутствие консенсусаНезависимо от того, какой термин будет выбран в конечном итоге, все чаще говорят о технологии, которая когда-то была просто научной фантастикой, а теперь может стать реальностью. Но так же, как в Кремниевой долине не могут договориться о том, что такое AGI или SIA, нет единого мнения о том, как это будет выглядеть, если или когда это станет реальностью.
Когда DeepMind ввел этот термин, он заявил, что AGI — это «ИИ, который по крайней мере так же способен, как и квалифицированный взрослый, в большинстве когнитивных задач». Но это определение поднимает еще больше вопросов: кто такой квалифицированный взрослый? Как мы узнаем, что выполнили большинство когнитивных задач? Что это за задачи?
«Для кого-то AGI — это научная цель. Для кого-то — это религия. А для кого-то — это маркетинговый термин», — отмечает Франсуа Шолле, бывший инженер-программист Google. Следовательно, существует широкий диапазон оценок того, когда это может произойти. Илон Маск считает, что технология ИИ, которая умнее людей, станет реальностью в этом году. Амодей из Anthropic называет эту дату 2026 годом. А Альтман считает, что это произойдет во время президентства Дональда Трампа.
OpenAI и Anthropic привлекли миллиарды долларов от инвесторов для разработки технологии и поддерживаются планами Белого дома по прекращению регулирования ИИ, чтобы опередить Китай. OpenAI также имеет поддержку Трампа для инвестирования в центры обработки данных в Соединенных Штатах и на Ближнем Востоке.
В первом квартале 2025 года IAG упоминался в презентациях компаний на 53% чаще, чем за аналогичный период предыдущего года.
Однако определение этого вопроса крайне важно для понимания его последствий и того, должно ли оно быть приоритетом.
ЕС не исключил приостановку своего закона об ИИ, отчасти из-за страха помешать его развитию. Британский Институт безопасности искусственного интеллекта пытается понять, что такое ИИ, чтобы спланировать свою политику безопасности и исследования.
Даже в самом свободном определении AGI значительно ускорит вычисления, но при очень высоких финансовых и экологических издержках. И если инженерам удастся создать технологию, как мы можем гарантировать, что она будет использоваться справедливо и честно?
Что такое IAG на самом деле?Для OpenAI это технология, которая может быть использована для выполнения работы, приносящей экономическую выгоду. «Мы пытаемся разработать высокоавтономную систему, которая может превзойти людей во многих задачах, имеющих экономическую ценность», — говорит Марк Чен, директор по исследованиям компании. По его словам, ключевой особенностью является универсальность, способность выполнять задачи в самых разных областях: «Она должна быть достаточно автономной и не нуждаться в особой помощи для выполнения своих задач. ИИ сможет быстро воплощать в жизнь то, что у нас в головах, и имеет потенциал помогать людям создавать не только изображения или текст, но и целые приложения».
Но критики утверждают, что это определение не описывает действительно интеллектуальную систему. «Это просто автоматизация , то, чем мы занимаемся десятилетиями», — говорит Шолле, бывший инженер Google.
Легг из DeepMind придерживается иной точки зрения: «Я думаю, что типичная человеческая производительность — это наиболее естественный, практичный и полезный способ определить минимальные требования к ИИ, чтобы считаться AGI. Большая проблема многих определений AGI заключается в том, что они недостаточно четко указывают, что должна уметь делать система ИИ, чтобы считаться AGI».
DeepMind должен быть «таким же способным, как опытный взрослый, выполнять большинство когнитивных задач. Если люди могут регулярно выполнять когнитивную задачу, то искусственный интеллект должен быть в состоянии сделать это, чтобы считаться ИИ», — отмечает Легг.
Лаборатория, принадлежащая Google, установила пять уровней возможностей ИИ. Такие модели ИИ, как ChatGPT от OpenAI, Gemini от Google и Llama от Meta, достигнут только первого уровня или «зарождающегося ИИ». Пока ни одна общая модель не достигла второго уровня , что позволило бы ей превзойти хотя бы 50-й процентиль опытных взрослых, говорит Аллан Дефо, директор пограничной безопасности и управлению в DeepMind.
Третий уровень потребует, чтобы модель была не хуже 90-го процентиля квалифицированных взрослых, четвертый уровень потребует 99-го процентиля, а пятый уровень, сверхчеловеческий ИИ или искусственный суперинтеллект, превзойдет 100% людей.
Какова дорожная карта?Если нет согласия по поводу цели, неудивительно, что существует множество теорий о лучшем пути к ИИ. OpenAI и Anthropic утверждают, что языковые модели, которые они создают, представляют собой лучший маршрут. Их идея заключается в том, что чем больше данных и вычислительной мощности поступает в модель, тем она будет «умнее».
Стартап , стоящий за ChatGPT , только что представил свою новую модель «рассуждений» o3, которая решает более сложные задачи кодирования, математики и распознавания изображений. Некоторые эксперты, такие как экономист Тайлер Коуэн, считают, что это самая близкая технология к AGI.
Для Чена следующим шагом к ИИ станет создание моделей, способных действовать независимо и надежно. Инструменты ИИ затем могли бы производить инновации и, в конечном счете, действовать как организации, подобные большим структурам людей, работающих вместе.
Еще одна ключевая особенность — самосовершенствование . «Это система, которая может улучшать себя, писать свой собственный код и генерировать следующую версию себя , что делает ее еще лучше», — добавляет Чен. Но критики говорят, что у языковых моделей есть бесчисленное множество недостатков. Они все еще очень неточны, они выдумывают вещи и на самом деле не «думают», а просто предсказывают следующее вероятное слово в предложении.
Согласно широко обсуждаемой статье исследователей Apple, новое поколение моделей рассуждений просто создает иллюзию мышления, и их точность значительно снижается при выполнении сложных задач. Некоторые эксперты также утверждают, что язык сам по себе не может охватить все измерения интеллекта и что необходимо разработать более широкие модели, чтобы включить больше измерений.
ЛеКун из Meta создает «модели мира», которые пытаются инкапсулировать физику нашего мира, обучаясь на основе видео и роботизированных данных, а не языка. Он утверждает, что нам нужно более целостное понимание мира для создания превосходного ИИ.
Возможные проблемыИндустрия ИИ истощает данные, получая большую их часть из Интернета. Несмотря на это, Альтман заявил в декабре, что «ИИ станет реальностью раньше, чем думает большинство людей, и это будет иметь гораздо меньшее значение, чем люди думают. Наша следующая цель — подготовить OpenAI к тому, что будет дальше: к сверхинтеллекту».
По мнению критиков IAG, это разнообразие мнений подчеркивает истинные мотивы компаний. Ник Фрост , соучредитель стартапа Cohere, занимающегося ИИ, считает, что «IAG — это в основном пузырь, который привлекает капитал из этой идеи». А Антуан Мойро, партнер Lightspeed Ventures, венчурной компании, инвестировавшей в такие компании, как Anthropic и Mistral, отмечает, что «с IAG инвесторы не только надеются на сотни миллионов долларов дохода, но и на перспективу преобразования того, как мы генерируем ВВП, потенциально генерируя триллионы долларов результатов. Вот почему люди готовы рисковать с IAG».
Другие вопросыВсе больше людей обращаются к чат-ботам на основе ИИ для дружбы, общения и даже терапии . Но это возможно только благодаря огромному количеству человеческого труда, который позволяет чат-ботам на основе ИИ казаться умнее — или отзывчивее — чем они есть на самом деле.
Некоторые задаются вопросом, будет ли AGI хорошей вещью. «Биология, психология и образование еще не полностью поняли интеллект», — говорит Маргарет Митчелл, директор по этике в компании Hugging Face, занимающейся ИИ с открытым исходным кодом, и соавтор статьи, в которой утверждается, что AGI не следует считать путеводной звездой. Эксперты говорят, что это стремление к разработке определенного типа технологий концентрирует власть и богатство в руках небольшого меньшинства людей и эксплуатирует художников и творцов, чья интеллектуальная собственность оказывается в огромных наборах данных без их согласия и без компенсации.
AGI также имеет огромный экологический след, поскольку все более мощные модели требуют тонн воды и энергии для обучения и работы в огромных центрах обработки данных. Это также увеличивает потребление сильно загрязняющих продуктов, таких как нефть и газ.
Это также поднимает этические вопросы и потенциальный социальный вред. В гонке за разработкой технологии и получением выгоды от ее экономических преимуществ правительства пренебрегают правилами, которые могли бы обеспечить базовую защиту от технологий ИИ, таких как алгоритмическая предвзятость и дискриминация.
Существует также влиятельное меньшинство, включающее исследователей, считающихся отцами-основателями современного ИИ, таких как Йошуа Бенджио и Джеффри Хинтон, которые предупреждают, что, если его не остановить, ИИ может привести к вымиранию человечества.
Одна из опасностей идеи «AGI любой ценой» заключается в том, что она может способствовать развитию плохой науки , говорит Митчелл. Другие, более устоявшиеся предметы, такие как химия и физика, имеют научные методы, которые позволяют проводить строгие испытания. Но компьютерные науки — это гораздо более новая и более инженерно-ориентированная область, с тенденцией делать «замечательные, огульные заявления, которые на самом деле не подтверждаются исследованиями». А Фросс из Cohere предупреждает, что «политики и предприятия обязаны задуматься о реальных рисках мощных технологий».
Но создание надежных способов измерения и оценки технологий ИИ в реальном мире затрудняется одержимостью отрасли ИИ. «Пока мы этого не достигнем, ИИ будет не более чем иллюзией и модным словом», — заключает Митчелл.
© The Financial Times Limited [2025]. Все права защищены. FT и Financial Times являются зарегистрированными товарными знаками Financial Times Limited. Распространение, копирование или изменение запрещены. EXPANSIÓN несет исключительную ответственность за этот перевод, а Financial Times Limited не несет ответственности за его точность.
Expansion