Выберите язык

Russian

Down Icon

Выберите страну

Turkey

Down Icon

Как самые громкие голоса в области ИИ перешли от «Регулируйте нас» к «Освободите нас»

Как самые громкие голоса в области ИИ перешли от «Регулируйте нас» к «Освободите нас»
Спустя два года после того, как Сэм Альтман выступил в Конгрессе с предложением ограничить использование ИИ, он вернулся в Вашингтон с новым посланием: чтобы победить Китай, инвестируйте в OpenAI.
Фотоиллюстрация: сотрудники WIRED; Фотография: J. David Ake/Getty Images

16 мая 2023 года Сэм Альтман предстал перед подкомитетом судебной системы Сената. Тема слушания была «Надзор за ИИ». Сессия была праздником любви, и Альтман, и сенаторы праздновали то, что Альтман назвал «моментом печатного станка» ИИ, и признавали, что США нужны сильные законы, чтобы избежать его ловушек. «Мы считаем, что регулирующее вмешательство правительств будет иметь решающее значение для смягчения рисков все более мощных моделей», — сказал он. Законодатели ловили каждое слово Альтмана, когда он восторженно рассказывал о том, как умные законы могут позволить ИИ процветать, но только в рамках жестких правил, которые и законодатели, и разработчики ИИ считали жизненно важными в тот момент. Альтман говорил от имени отрасли, которая широко разделяла его позицию. Боевой клич был «Регулируйте нас!»

Два года спустя, 8 мая этого года, Альтман снова предстал перед другой группой сенаторов. Сенаторы и Альтман все еще пели ту же мелодию, но один из них взял из другого плейлиста. Это слушание называлось «Победа в гонке ИИ». В округе Колумбия слово «надзор» вышло из моды, и дискурс ИИ не стал исключением. Вместо того чтобы выступать за то, чтобы внешние органы изучали модели ИИ для оценки рисков или чтобы платформы предупреждали людей, когда они взаимодействуют с ИИ, председатель комитета Тед Круз выступил за путь, по которому правительство не только подпитывало бы инновации, но и устраняло бы барьеры, такие как «чрезмерное регулирование». Альтман был с этим согласен. Его послание больше не было «регулируйте меня», а «инвестируйте в меня». Он сказал, что чрезмерное регулирование — как правила, принятые Европейским союзом , или один законопроект, недавно наложенный вето в Калифорнии, — было бы «катастрофическим». «Нам нужно пространство для инноваций и быстрого движения», — сказал он. Он подтвердил, что защитные ограждения могут быть необходимы, но они должны включать «разумное регулирование, которое не будет нас замедлять».

Что произошло? Во-первых, момент паники сразу после того, как все были напуганы ChatGPT, прошел, и стало ясно , что Конгресс не собирается быстро двигаться в вопросе ИИ. Но самым большим событием стало то, что Дональд Трамп вернул себе Белый дом и нажал на тормоза в отношении нюансированного, прорегулируемого тона администрации Байдена. Доктрина Трампа о регулировании ИИ кажется подозрительно близкой к доктрине сторонника Трампа Марка Андрессена, который заявил в своем Манифесте технооптимиста , что регулирование ИИ было буквально формой убийства, потому что «любое замедление ИИ будет стоить жизней». Вице-президент Дж. Д. Вэнс четко обозначил эти приоритеты на международном собрании, состоявшемся в Париже в феврале этого года. «Я здесь не для того, чтобы говорить о безопасности ИИ, как называлась конференция пару лет назад», — сказал он. «Мы считаем, что чрезмерное регулирование сектора ИИ может убить преобразующую отрасль как раз в тот момент, когда она набирает обороты, и мы приложим все усилия для поощрения политики роста ИИ». Позднее администрация представила План действий в области ИИ , «чтобы укрепить позиции Америки как центра ИИ и не допустить, чтобы излишне обременительные требования препятствовали инновациям частного сектора».

В этом движении появились два противника. Первый — Европейский союз, который принял режим регулирования , требующий прозрачности и подотчетности от крупных компаний ИИ. Белый дом презирает этот подход, как и те, кто строит бизнес ИИ в США.

Но самым большим пугалом является Китай. Перспектива того, что Народная Республика превзойдет США в «гонке ИИ», настолько немыслима, что регулирование должно быть отложено в сторону или сделано с тем, что и Альтман, и Круз описали как «легкое прикосновение». Часть этих рассуждений исходит из теории, известной как «жесткий взлет», которая постулирует, что модели ИИ могут достичь переломного момента, когда молниеносное самосовершенствование запускает головокружительный виток сверхспособностей, также известный как ОИИ. «Если ты доберешься туда первым, ты подлый человек, я не смогу тебя поймать», — говорит бывший генеральный директор Google Эрик Шмидт , где «ты» — конкурент (Шмидт говорил о статусе Китая как лидера в области открытого исходного кода.) Шмидт — один из самых громких голосов, предупреждающих о таком возможном будущем. Но Белый дом, вероятно, меньше заинтересован в Сингулярности, чем в классической экономической конкуренции.

Страх перед тем, что Китай вырвется вперед в области ИИ, является ключевым фактором текущей политики США, и безопасность к черту. Партийная линия даже возражает против того, чтобы отдельные штаты пытались заполнить вакуум бездействия собственными законами. Версия мегазаконопроекта, предоставляющего налоговые льготы и сокращающего Medicaid, только что принятая Палатой представителей, включала обязательный мораторий на любое законодательство штата в области ИИ на 10 лет . Это как вечность с точки зрения прогресса ИИ. (Эксперты говорят, что это положение не выдержит некоторого сопротивления в Сенате, но следует отметить, что почти каждый республиканец в Палате представителей проголосовал за него.)

Неудивительно, что Trumpworld отверг регулирование и занял ура-патриотическую позицию по ИИ. Но что случилось с, казалось бы, искренним желанием в отрасли ввести правила, гарантирующие, что продукты ИИ не выйдут из-под контроля? На этой неделе я связался с несколькими ведущими компаниями ИИ и мне указали на опубликованные блоги и стенограммы речей и публичных показаний, но ни один руководитель не стал официально говорить об этом. (Справедливости ради, я не уделил им много времени.)

Типичным примером таких материалов был блог OpenAI о политике . Он требует «свободы для инноваций», что, по всей вероятности, означает отсутствие обременительных законов; строгий экспортный контроль; и оппортунистический запрос на «свободу для обучения». Это эвфемистический запрос Конгрессу переопределить интеллектуальную собственность как «добросовестное использование», чтобы OpenAI и другие компании могли обучать свои модели с использованием материалов, защищенных авторским правом, — без выплаты компенсаций создателям. Microsoft также просит об этом золотом зерне. (Раскрытие информации: я вхожу в совет Гильдии авторов, которая подает в суд на OpenAI и Microsoft за использование книг, защищенных авторским правом, в качестве учебных материалов. Мнения, высказанные здесь, являются моими собственными.)

У лагеря регулирования «легкого прикосновения» (или отсутствия прикосновения) есть отличная мысль: никто не знает, как создавать законы, которые предотвращают самые большие опасности ИИ, не замедляя темпы инноваций. Но помимо избежания катастрофического риска, есть много других областей, где регулирование ИИ не будет создавать препятствий для исследований. К ним относятся запрет определенных видов слежки ИИ, дипфейков и дискриминации; четкое информирование людей о том, что они взаимодействуют с роботами; и введение более высоких стандартов для защиты персональных данных в системах ИИ. (Я признаю, что сжульничал, составляя этот список — не используя ChatGPT, а опираясь на виды вреда ИИ , которые Палата представителей не позволила бы штатам регулировать.)

Общественное давление или какой-то впечатляющий пример злоупотребления могут заставить Конгресс в какой-то момент заняться этими проблемами ИИ. Но для меня запомнился разворот два года назад, когда серьезные опасения по поводу катастрофического риска доминировали в разговорах в мире ИИ. Ярким исключением из этого является Anthropic, которая до сих пор не отошла от поста в блоге в конце октября — всего за несколько дней до президентских выборов — который не только призвал к эффективному регулированию для «снижения катастрофических рисков», но и фактически предложил конец света, если мы не сделаем этого в ближайшее время. «Правительства должны срочно принять меры по политике ИИ в течение следующих восемнадцати месяцев», — было написано там жирным шрифтом. «Окно для упреждающего предотвращения рисков быстро закрывается».

В этой среде практически нет шансов, что Anthropic получит желаемое. Может быть, это не имеет значения: возможно, страхи перед апокалипсисом ИИ сильно преувеличены. Однако обратите внимание, что руководители практически каждой крупной компании ИИ предсказывают, что через несколько лет мы реализуем искусственный интеллект. Если надавить на них, они также признают, что управление ИИ или даже понимание того, как он работает, — это работа в процессе. Тем не менее, сейчас основное внимание уделяется ускорению перехода к более мощному ИИ — якобы для того, чтобы победить Китай.

Китайцы дали ясно понять, что они не хотят подчиняться роботам-повелителям больше, чем мы. Главный геополитический соперник Америки также продемонстрировал некоторую заинтересованность в установлении жестких стандартов безопасности. Но если Соединенные Штаты будут настаивать на отказе от ограждений и на полной скорости двинуться к будущему, которое они не смогут сдержать, у нашего самого большого конкурента не останется иного выбора, кроме как сделать то же самое. Пусть победит лучший жесткий старт.

wired

wired

Похожие новости

Все новости
Animated ArrowAnimated ArrowAnimated Arrow