Маселени жакшыраак түшүнүү үчүн ЮНИСЕФ аналогияны келтирет: ар бир класста окуучулардын арасында бир бала болсо да, мындай кылмыштын курмандыгы болуп калган.Дипфейктер — бул медиа материалдар (сүрөт, видео, аудио), жасалма интеллект (ИИ) технологиялары аркылуу түзүлгөн же модификацияланган, чыныгыдай көрүнгөн же угулган. Тагыраак айтканда, алар куракка толо элек балдар менен сексуалдык мазмунду түзүү үчүн көбүрөөк колдонулууда.
Изилдөөчүлөр балдардын ИИ колдонууга байланыштуу тобокелдиктер жөнүндө жакшы маалымдар экенин белгилешти. Изилдөө жүргүзүлгөн айрым өлкөлөрдө, балдардын болжол менен үчтөн экиси фальшиви сексуалдык сүрөттөр же видеолорду түзүү мүмкүнчүлүгүнө байланыштуу тынчсыздануусун билдиришти.
ЮНИСЕФ дипфейктерди сексуалдык контекстте түзүү балдарга зомбулук көрсөткөн формасы экенин баса белгилейт.
Фонд ошондой эле ИИ технологияларын коопсуздукка багытталган ыкмаларды киргизүүгө аракет кылган иштеп чыгуучулардын аракеттерин колдой турганын белгиледи, ошондой эле өз технологияларын мыйзамсыз колдонууга жол бербөө үчүн ишенимдүү чараларды сунуштады.
Ошентсе да, көптөгөн ИИ системалары тиешелүү коопсуздук механизмдери жок иштелип чыгууда. Тобокелдиктер, генеративдик ИИ инструменттери социалдык тармактарга киргизилгенде, жогорулайт, анткени мындай материалдар тез тарап кетет.
ЮНИСЕФ ИИ иштеп чыгуучуларын долбоорлоо этаптарында коопсуздук чараларын киргизүүгө чакырат жана бардык санариптик компанияларга ИИ колдонуу менен түзүлгөн балдарга карата сексуалдык зомбулукка байланыштуу материалдардын таралышын алдын алууну сунуштайт, болгону эле болгон учурларга жооп бербей.
Башкы беттеги сүрөт иллюстративдик: pngtree.com.