Они призывают к ограничению использования искусственного интеллекта на основе международного соглашения.

НЬЮ-ЙОРК (EFE) — Лауреаты Нобелевской премии, эксперты в области искусственного интеллекта (ИИ) и ученые вчера призвали к созданию международного института для ограничения рисков ИИ в преддверии заседаний высокого уровня Генеральной Ассамблеи Организации Объединенных Наций, которые пройдут на этой неделе в Нью-Йорке.
Инициатива, запущенная вчера и подписанная более чем двумястами людьми и семьюдесятью организациями, призывает правительства разработать обязательное международное соглашение о «красных линиях» для ИИ.
«Глобальный призыв к установлению ограничений для ИИ только что озвучила филиппинская журналистка, лауреат Нобелевской премии мира Мария Ресса, на заседании высокого уровня ООН, посвященном 80-летию организации. Мы призываем правительства всего мира достичь важнейшего международного соглашения о границах, которые ИИ никогда не должен переходить», — заявил на виртуальной пресс-конференции Шарбель Сежери, исполнительный директор Французского центра безопасности ИИ.
Эксперт пояснил, что цель состоит не в том, чтобы отреагировать после серьезного инцидента и наказать за нарушения позже, а в том, чтобы предотвратить масштабные, потенциально необратимые угрозы до того, как они произойдут.
Цель этой коалиции экспертов — потребовать от разработчиков продемонстрировать безопасность своего ИИ в качестве условия доступа на рынок, подобно тому, как это делается в области разработки лекарств и атомных электростанций.
Крупные технологические компании, такие как Meta, Google и OpenAI, вкладывают все свои средства в разработку «суперинтеллекта» или общего искусственного интеллекта (ОИИ) — гипотетической системы ИИ, превосходящей возможности человеческого мозга и в настоящее время существующей только в научной фантастике, но которая, по мнению экспертов, может появиться в следующем десятилетии.
Стюарт Рассел, профессор Университета Беркли, подчеркнул, что ИИ способен очень хорошо имитировать людей.
«Человеческое поведение направлено на достижение целей: убеждать, впечатлять, выживать, соблазнять, продавать и т.д. Системы искусственного интеллекта неизбежно приобретают и стремятся к достижению этих целей самостоятельно. Это неизбежное следствие их развития. Они изначально небезопасны», — подчеркнул директор Центра совместимого с человеком искусственного интеллекта.
Больше всего Рассела беспокоит то, что разработчики признают, что у них нет плана по мониторингу систем ИИ, и на данный момент у правительств нет планов требовать от них этого.
Рассел заявил, что не хочет быть паникёром, но существует «значительная» вероятность катастрофы масштаба аварии на Чернобыльской АЭС, поскольку эта технология может стоять за скоординированным саботажем финансовых, коммуникационных или энергетических систем.
«Другая возможность — гораздо более масштабная катастрофа, в которой человечество безвозвратно потеряет контроль и не сможет влиять на свое существование», — сказал профессор.
Наконец, Рассел отметил, что существует и третий, нереалистичный вариант: с разработкой и внедрением этой передовой технологии ничего не произойдет.
«Недавно один генеральный директор сказал мне, что событие масштабов Чернобыля — это наилучший сценарий, а старший научный сотрудник OpenAI сказал мне, что, по его мнению, вероятность (вымирания человечества из-за ИИ) сейчас составляет 60%», — рассказал он.
Ники Илиадис, директор по глобальному управлению ИИ в The Future Society, отметил, что «важные первые шаги» уже сделаны, например, создание свода правил Европейского союза, но теперь эти правила необходимо сделать «глобальными и подлежащими исполнению».
По мнению Илиадиса, скорее всего, понадобится новый международный институт, который будет определять глобальные ограничения для ИИ, контролировать их соблюдение и вмешиваться в случае пересечения этих «красных линий».
yucatan