Для лучшего понимания масштабов проблемы в ЮНИСЕФ приводят аналогию: в каждом классе среди учащихся есть хотя бы один ребенок, ставший жертвой такого рода преступления.Дипфейки — это медиаматериалы (фото, видео, аудио), которые созданы или модифицированы с помощью технологий искусственного интеллекта (ИИ) и выглядят или звучат как реальные. К сожалению, они все чаще используются для создания сексуализированного контента с участием несовершеннолетних.
Исследователи отметили, что дети хорошо осведомлены о рисках, связанных с использованием ИИ. В некоторых странах, где проводилось исследование, приблизительно две трети детей выразили обеспокоенность по поводу возможности создания фальшивых сексуальных изображений или видео с их участием.
ЮНИСЕФ подчеркивает, что создание дипфейков с сексуальным подтекстом является формой насилия над детьми.
Фонд также отметил, что приветствует усилия тех разработчиков ИИ, которые стремятся внедрять подходы, ориентированные на безопасность с самого начала, а также надежные меры для предотвращения неправомерного использования своих технологий.
Тем не менее, многие системы ИИ разрабатываются без должных механизмов безопасности. Риски усугубляются, когда генеративные инструменты ИИ внедряются в социальные сети, где такие материалы быстро распространяются.
ЮНИСЕФ призывает разработчиков ИИ внедрять меры безопасности на этапе проектирования и настоятельно рекомендует всем цифровым компаниям предотвращать распространение материалов, содержащих сексуальное насилие над детьми, созданных с использованием ИИ, а не просто реагировать на уже произошедшие случаи.
Фото на главной странице иллюстративное: pngtree.com.