Закон об искусственном интеллекте: пошаговое объяснение рекомендаций GPAI

Европейский союз продолжает оказывать компаниям поддержку в соблюдении Закона об искусственном интеллекте, нового закона об искусственном интеллекте . Комиссия опубликовала важные руководящие принципы для моделей искусственного интеллекта общего назначения (ИИ общего назначения). Это следует за уже принятыми документами о запрещённых практиках использования ИИ и обязательном обучении . Цель на этот раз — уточнить сферу применения требований Закона об искусственном интеллекте к поставщикам ИИ общего назначения, который вступит в силу 2 августа.
Правила ИИ общего назначенияУниверсальные искусственные интеллекты (GPAI) — это алгоритмы, обученные на больших объёмах данных и способные выполнять широкий спектр задач, часто интегрируемые в другие системы искусственного интеллекта. По этой причине европейское законодательство налагает ряд конкретных обязательств на компании, разрабатывающие такие системы.
К ним относятся написание технической документации, обмен информацией с поставщиками последующих систем, реализация политики в области авторских прав и публикация отчетов по обучающим материалам.
К общим интеллектуальным объектам, представляющим системный риск, применяются дополнительные требования, такие как модельные оценки, отчетность об инцидентах и защита кибербезопасности.
Когда модель квалифицируется как GPAIВо-первых, Комиссия определила критерии, которые должен использовать поставщик для оценки того, относится ли его алгоритм к категории GPAI. Это имеет решающее значение для определения необходимости соблюдения обязательств, предусмотренных Законом об искусственном интеллекте.
Модель попадает в эту категорию, если она обучена с использованием вычислительных ресурсов, превышающих 10^23 флопс, и способна генерировать языковые данные (в форме текста или аудио), изображения или видео на основе текста. Это относится к языковым моделям, то есть к тем, которые обучены на больших объёмах текста, собранных из интернета, с вычислительной мощностью, установленной Комиссией.
Однако это не абсолютное правило: важно проверить, обладает ли модель значительной общностью и способна ли она успешно выполнять широкий спектр различных задач. Например, модели, обученные только преобразованию речи в текст или повышению разрешения изображений, даже если они превышают критерий 10^23 FLOP, не относятся к GPAI.
Цифра поставщикаКомпании обязаны соблюдать обязательства, предусмотренные Законом об ИИ в отношении GPAI, если они являются «поставщиками», «размещающими» эти алгоритмы на европейском рынке. В связи с этим Комиссия уточнила сферу применения этих ключевых понятий.
Поставщик — это организация, которая разрабатывает или разработала модель и выводит её на рынок под своим именем или брендом. Это также относится к компаниям за пределами Европы. Вывод на рынок означает первый выпуск модели на рынок ЕС и может осуществляться различными способами, такими как API, загрузка и интеграция в другие системы.
В случае внесения изменений в модель GPAI только существенное изменение общности, ёмкости или системного риска модели позволяет квалифицировать лицо, внесшее изменения, как поставщика. И в этом случае Комиссия также предоставила индикаторы, помогающие компаниям в оценке.
Другие рассмотренные пунктыВ рекомендациях также разъясняется сфера действия исключения, позволяющего компаниям GPAI уклоняться от выполнения некоторых обязательств, предусмотренных законом в отношении моделей, выпущенных по свободным и открытым лицензиям.
Затем были представлены результаты соблюдения недавно опубликованного Кодекса поведения ЕС в отношении объектов общего ИИ и ожидания относительно соблюдения Закона о ИИ, особенно в период сразу после 2 августа. В этой связи Комиссия объявила, что примет коллективный и поэтапный подход.
La Repubblica