Deepnude и «эмпатические» чат-боты: искусственный интеллект — новый рубеж детской порнографии


Искусственный интеллект — новый рубеж для педофилов
Новый рубеж детской порнографии — искусственный интеллект . Это осудил Дон Фортунато Ди Ното, священник и основатель Ассоциации Meter ETS , которая борется с насилием над детьми уже более тридцати лет. Два дня назад в Риме Ассоциация представила первое итальянское досье, полностью посвященное влиянию ИИ на онлайн-злоупотребления : чат-боты, дипфейки и виртуальная детская порнография.
Досье счетчикаВ отчете Дон Ди Ното и Ассоциация также предлагают свой вклад в работу Папы Льва XIV, который объявил об энциклике об искусственном интеллекте . Риск, — подчеркивается в досье, — заключается в нормализации насилия: если изображение создано на компьютере, следовательно, жертвы не являются физическими, то это больше не преступление. А вместо этого оно является таковым. Проблема в том, как его идентифицировать и преследовать по закону. Итальянское законодательство на сегодняшний день приравнивает виртуальную детскую порнографию к реальной детской порнографии. Но, — подчеркивает Ди Ното, — ему не хватает эффективности: правоохранительные органы с трудом вмешиваются вовремя, а материал остается в обращении. Необходимы более острые инструменты, обновленные правила и постоянное обучение : «Важнейшим шагом является сотрудничество между правительствами и технологическими компаниями для разработки этического ИИ, способного предотвращать и блокировать производство детской порнографии и материалов с глубоким обнажением».
Ассоциация осуждает двойную угрозу: скорость, с которой этот контент создается, шифруется и распространяется, и отсутствие адекватных регулирующих инструментов. Наиболее используемые платформы для распространения материалов — Signal (8 случаев из 10), Telegram, Viber, Whatsapp и Instagram. Часто это частные каналы, зашифрованные, которые трудно отслеживать и блокировать.
Как искусственный интеллект работает на благо насилия?Но как именно искусственный интеллект работает на службе насилия? С помощью чат-ботов: программ, способных имитировать сложные разговоры, в которых приманке больше не нужно выставлять себя напоказ или прилагать какие-либо усилия. Фактически, приманка заботится с первого подхода этими программами, способными распознавать ключевые слова, реагировать эмпатически и подготавливать почву для обмена интимным материалом. Следующий шаг — манипуляция изображениями: начиная с фотографий, сделанных в повседневных контекстах — спорт, школа, игры — ИИ генерирует deepnudes, поддельные, но реалистичные изображения или видео, в которых несовершеннолетний появляется обнаженным или сексуализированным. Около 10% групп, отслеживаемых в Интернете, запросили создание deepfakes, в то время как 20% генерируют их, начиная с невинных изображений.
Поддельные изображения, да, но с реальными последствиями. Данные Глобальной обсерватории по борьбе с педофилией (OSMOCOP), созданной самой Meter, вызывают тревогу: только за первые шесть месяцев 2025 года почти 3000 несовершеннолетних оказались в глубоком фейковом детском порно. Насущная проблема. С помощью Dossier Mater хочет «осудить и занять сильную позицию со стороны общества, политики и церкви». Более 60% подростков знают о deepnudes , но более половины не могут отличить их от настоящего контента. Однако самые значимые и обнадеживающие данные касаются восприятия риска: 9 из 10 подростков считают, что распространение deepfake-контента представляет собой конкретную опасность, и почти 7 из 10 были бы готовы сообщить об этом.
© Права на воспроизведение защищены.
Теги статьи
Искусственный интеллектLuce