Иск из-за вопросов к искусственному интеллекту? Польское законодательство ясно.

Польша подала жалобу в Еврокомиссию на деятельность искусственного интеллекта Илона Маска. Чат-бот Grok, спровоцированный пользователями портала X, публично оскорбил польских политиков.
Кто несёт ответственность за ненависть, порождаемую искусственным интеллектом? По мнению юристов, это те, кто задал провокационную подсказку, а затем распространил ответ.
Собеседники из CIS утверждают, что контент, создаваемый искусственным интеллектом, может нарушать права личности и подпадать под действие гражданского или уголовного права.
Искусственный интеллект Илона Маска публиковал оскорбительные сообщения в адрес польских политиков , включая Дональда Туска и Ярослава Качиньского. 9 июля министр цифровых технологий Польши направил письмо в Европейскую комиссию, указав, что подобные сообщения могут представлять собой «серьёзное нарушение» закона ЕС о модерации контента – Закона о цифровых услугах (DSA). Еврокомиссия ведёт расследование в отношении платформы уже полтора года. Польская ветка призвана дополнить его.
Как так получилось, что чат-бот оскорбил польских политиков?В социальной сети X есть аккаунт, позволяющий взаимодействовать с языковой моделью Grok. Вопросы и ответы к искусственному интеллекту доступны всем. Любой желающий может присоединиться к обсуждению.
На прошлой неделе правила для Grok были смягчены. Он мог отвечать ненормативной лексикой, не соблюдая политкорректность. Когда польские пользователи узнали о новых правилах, Grok поддался провокации и опубликовал вульгарные посты . Искусственный интеллект назвал депутата от «Гражданской коалиции» Романа Гертыха «негодяем» и «лжецом», а премьер-министра Дональда Туска — «предателем, продавшим Польшу Германии и ЕС».
Пострадали и другие политики. В конечном итоге, ответы ИИ дошли до того, что польских политиков и журналистов стали называть «к чёрту».
Аналогичное явление наблюдается по всему миру. Турецкий суд заблокировал доступ к чат-боту после того, как тот опубликовал ответы, оскорбляющие президента Турции Реджепа Тайипа Эрдогана.
Вскоре после скандала Линда Яккарино, глава платформы X, ушла со своей должности , а компания опубликовала заявление, в котором говорилось, что ее руководство знало о публикациях Grok и работает над их удалением, а также над улучшением модели обучения чат-бота.
Могут ли чат-боты, такие как ChatGPT или Grok, нарушать права личности?По словам юристов, к которым мы обратились за консультацией, польское законодательство чётко указывает на то, что контент, создаваемый искусственным интеллектом, может нарушать права личности. Адвокат Матеуш Гросицкий из юридической фирмы Graś i Wspólnicy напоминает:
Согласно статье 23 Гражданского кодекса, граждане имеют право на защиту своих личных прав, таких как достоинство, честь, репутация и имидж. В случае контента, создаваемого искусственным интеллектом, польское законодательство не предусматривает исключений из этой защиты.
«Люди, пострадавшие от оскорбительных высказываний, генерируемых искусственным интеллектом, могут отстаивать свои права как в Польше, так и за рубежом. На национальном уровне жертвы могут подать гражданский иск для защиты своих личных прав или подать частные иски , требуя извинений, компенсации или удаления контента, наносящего ущерб их репутации», — добавляет Гросицкий.
Однако он подчеркивает, что публичные деятели или лица, занимающие государственные должности, должны быть более терпимыми к критике и спорным мнениям.
Кто может быть привлечен к ответственности — пользователь, создатель ИИ или платформа?Как сообщили юристы WNP, вопрос ответственности за контент, созданный искусственным интеллектом, является сложным. Ответственность зависит от того, кто создал или опубликовал контент, нарушающий права личности.
- Давайте помнить, что хотя все инструменты на базе искусственного интеллекта персонифицированы и представлены в публичном обсуждении как искусственные люди, они сами не подключаются к электросети и не принимают решений об интеграции с веб-сайтом и перезаписи комментариев на нем, - подчеркивают адвокат Зузанна Мяско и юрисконсульт Кацпер Кравчик из юридической фирмы Dubois i Wspólnicy.
«В повседневной жизни, при использовании неавтоматизированных инструментов, для получения определённого и потенциально нарушающего авторские права контента от чат-бота пользователю необходимо сформулировать запрос. В таких обстоятельствах ситуация очевидна: распространяя контент, пользователь нарушает права личности или распространяет клевету, и такой пользователь может быть привлечён как к уголовной, так и к гражданской ответственности», — говорит Зузанна Мёнско.
Вы действительно можете ответить на «подсказку»?А как насчёт дела Grok? « В первую очередь, ответственность могут нести пользователи, которые намеренно формулируют запросы или вопросы к ИИ , чтобы получить конкретные, противоречивые ответы. Такие действия могут быть расценены как активное нарушение прав личности и могут повлечь за собой гражданскую или даже уголовную ответственность в случае клеветы», — подтверждает Матеуш Гросицкий.
Он считает, что создатели систем искусственного интеллекта также могут быть привлечены к ответственности, если не обеспечат своим инструментам адекватные меры защиты и не будут контролировать генерируемый ими контент. Если алгоритмы разработаны ненадлежащим образом, что приводит к созданию оскорбительного или клеветнического контента, создатели могут быть привлечены к ответственности.
Ответственность может также применяться к платформам, на которых появляется такой контент, — особенно если они знают, что он нарушает чьи-то личные права, и не предпринимают никаких действий по этому поводу, даже если они обязаны реагировать в соответствии со своими собственными правилами.
Почему так сложно привлечь платформы к ответственности за контент?Однако, как утверждают собеседники из СНГ, привлечение платформ к ответственности — это долгий и сложный процесс.
«Самая большая проблема заключается в том, что такие социальные сети, как X, Facebook, Instagram и TikTok, практически не реагируют на сообщения о клеветническом или оскорбительном контенте», — признаёт адвокат Зузанна Мёнско. «На мой взгляд, наиболее эффективным решением было бы адаптировать закон к современным стандартам коммуникации, которая осуществляется через социальные сети. В Польше необходимо создать орган с хорошо развитой структурой, который будет эффективно и решительно реагировать на незаконный контент, появляющийся в интернете. Поставщики цифровых услуг не могут и дальше чувствовать себя безнаказанными за контент, публикуемый на платформах, за которые они отвечают», — говорит она.
Таким органом должно стать Управление электронных коммуникаций. Министерство цифровых технологий назначило его координатором цифровых услуг в Польше. Однако оно ещё не приступило к работе.
«На мой взгляд, слабость системы в борьбе с подобными нарушениями проистекает не из отсутствия соответствующих инструментов, а из бездействия при их использовании», — говорит юрисконсульт Кацпер Кравчик. «Я считаю, что нам следует сосредоточиться на мерах регулирования и обеспечении соблюдения обязательств провайдера X в соответствии с DSA (Законом о цифровых услугах — прим. ред.), то есть действовать системно, прежде всего, чтобы не допустить прецедента безнаказанности. Инструменты регулирующих органов наносят гораздо больший вред поставщикам цифровых услуг, чем потенциальный ущерб или компенсации, которые заложены в стоимость многих «современных» интернет-решений», — говорит он.
Какой вред может причинить человеку посты, написанные ИИ?Человеку, который чувствует себя оскорблённым или униженным контентом, созданным искусственным интеллектом, следует:
- Сохраните доказательства — сделайте снимки экрана, запишите ссылки и даты публикации.
- Сообщить о нарушении можно непосредственно на платформе, где был опубликован вредоносный контент. Большинство из них предоставляют формы для таких сообщений.
- Если это окажется неэффективным, пострадавшая сторона может подать гражданский иск о защите личных прав, требуя извинений, удаления контента или компенсации.
- В более серьезных случаях, например, клеветы, можно также обратиться в прокуратуру или подать частное обвинение.
Как напоминают эксперты, стоит помнить, что если платформа работает в Европейском Союзе, на нее распространяются положения Закона о цифровых услугах, которые возлагают на нее обязанность реагировать на противоправный контент.
TL;DR: Системы ИИ ни за что не отвечают, ответственность несут люди.Искусственный интеллект, даже самый продвинутый, не является юридическим лицом. Провокационный запрос, который может стать основанием для клеветы, может привести к судебному иску и даже к уголовной ответственности. Как резюмирует Кацпер Кравчик:
В случае с искусственным интеллектом (ИИ) необходимо перестать его персонифицировать и искать человека, стоящего за последствиями действий алгоритма: кто-то всегда нажимает кнопку «Ввод», что приводит к нарушению. Существующие правила следует трактовать именно в этом ключе.
wnp.pl