Заявление ЮНИСЕФ: Дипфейки все чаще применяются для создания контента сексуального характера с участием детей

Виктор Сизов Эксклюзив
VK X OK WhatsApp Telegram
Заявление ЮНИСЕФ: Дипфейки все чаще применяются для создания контента сексуального характера с участием детей

Согласно исследованию, проведенному ЮНИСЕФ совместно с международной организацией ECPAT и Интерполом в 11 странах, как минимум 1,2 миллиона детей сообщили о том, что их изображения были подделаны с целью создания откровенных фальшивок сексуального характера в прошлом году. В некоторых из исследуемых стран каждый 25-й ребенок стал жертвой такой практики, что соответствует одному ребенку в среднем классе.

Современные дети осознают эти риски: в некоторых странах до двух третей опрошенных заявили о своей обеспокоенности относительно того, что искусственный интеллект может быть использован для создания фальшивых сексуальных изображений или видео. Уровень беспокойства варьируется в разных странах, что подчеркивает необходимость повышения осведомленности и усиления мер по профилактике и защите.

Важно отметить, что сексуализированные изображения детей, созданные или обработанные с использованием ИИ, относятся к материалам, связанным с сексуальным насилием (CSAM). Злоупотребление дипфейками является серьезной проблемой, которая наносит реальный вред.

Когда используется изображение ребенка, он становится непосредственной жертвой. Даже в тех случаях, когда идентифицируемых жертв нет, такие материалы способствуют нормализации сексуальной эксплуатации детей, создают спрос на контент с насилием и усложняют работу правоохранительных органов по выявлению и защите нуждающихся в помощи детей.

ЮНИСЕФ поддерживает усилия разработчиков ИИ, которые внедряют безопасные подходы и надежные меры защиты для предотвращения неправомерного использования своих технологий. Однако на данный момент ситуация остается неоднородной, и многие модели ИИ разрабатываются без должных гарантий. Риски увеличиваются, особенно когда инструменты генеративного искусственного интеллекта интегрируются в социальные сети, что приводит к быстрому распространению обработанных изображений.

К числу мер, которые ЮНИСЕФ настоятельно призывает принять для борьбы с растущей угрозой материалов о сексуальном насилии над детьми, созданных с помощью ИИ, относятся следующие:


Проблема злоупотребления дипфейками требует срочных действий. Дети не могут позволить себе ждать, пока законы вступят в силу.
VK X OK WhatsApp Telegram

Читайте также: