В Кыргызстане намерены регулировать искусственный интеллект. Что за этим скрывается

Яна Орехова Экономика
VK X OK WhatsApp Telegram
С развитием искусственного интеллекта возникает множество вопросов о его регулировании. Насколько это актуально для Кыргызстана? Каковы мнения экспертов и депутатов? Что уже сделано в этой сфере?

Эти и другие аспекты обсуждались на Центральноазиатском киберюридическом форуме.

С точки зрения экспертов и депутатов

По мнению разработчиков в Кыргызстане, искусственный интеллект — это возможность выйти на международный IT-рынок, как отмечает директор Парка высоких технологий Азис Абакиров.

Не следует уничтожать технологию чрезмерным регулированием. У нас в интернете ещё сохраняется определенная свобода.

"Конечно, необходимо учитывать этические и другие риски, связанные с ИИ. Однако разработчики рассматривают его как способ выхода на мировой рынок. В этом году президент США выделил $500 миллиардов на развитие ИИ, а в Китае появился DeepSeek. У нас же всего несколько человек пытаются конкурировать с ними", - добавил он.

Таким образом, представители IT-сектора рассматривают ИИ как экономическую возможность, а не как угрозу, требующую немедленных ограничений. Сходные взгляды имеют и парламентарии. Депутат Жогорку Кенеша Дастан Бекешев подчеркнул, что к регулированию ИИ в Кыргызстане следует подходить с осторожностью.

"Когда речь идет о регулировании, я опасаюсь определенных последствий, особенно в Центральной Азии и на постсоветском пространстве. Как правило, под регулированием подразумевают различные запреты," - заметил Бекешев.

Он также добавил, что в Кыргызстане уже развиваются собственные проекты в области ИИ, такие как Akyl AI и AiRun.

Но это можно легко разрушить. Достаточно просто ввести строгие правила.

"Я считаю, что в Центральной Азии нужно учитывать опыт Европы и других стран," - добавил он.

Бекешев отметил, что Европа может ввести жесткие меры регулирования ИИ, влияя на крупных игроков, таких как OpenAI, Google, Meta и др.

"Можем ли мы это сделать? Нет, это только вызовет насмешку. Почему? Потому что наш рынок слишком мал. И хотя у нас создаются музыкальные произведения с использованием ИИ, уже начались разговоры о запрете. С видеогенерацией происходит то же самое. Чтобы избежать дипфейков. Я опасаюсь, что такие запреты могут навредить и не позволят проявиться нашим талантам. Но на данный момент мы можем сказать, что у нас есть разработки в области ИИ," - отметил Бекешев.

По сути, речь идет о страхе повторения привычной для региона практики — применения ограничений вместо комплексного подхода к развитию с учетом рисков.

"Когда говорят о необходимости регулирования, в разных юрисдикциях упоминается возможность использования технологии мошенниками. Однако важно понимать, что мошенники могут использовать любую технологию," - подчеркнул руководитель отдела по защите данных Yango Group Денис Садовников, добавив, что "регулирование ИИ не должно восприниматься как запрет".

В качестве примера для региона часто приводятся практики других стран. На данный момент в мире существуют несколько концептуальных подходов к регулированию ИИ: европейский, основанный на правах человека, англосаксонский, ориентированный на саморегулирование, и сингапурский, сочетающий оба подхода, рассказала депутат Мажилиса Казахстана Екатерина Смышляева.

"Казахстан выбрал модель, которая объединила лучшие аспекты этих подходов. Конечно, противоправные действия должны быть в центре внимания, и некоторые запретительные меры регулирования должны быть связаны исключительно с такими действиями," - уточнила она.

При этом Смышляева добавила, что многие алгоритмические решения ИИ могут не быть противоправными, но все же причинять вред обществу. Депутат отметила, что в Казахстане был разработан и принят закон об ИИ, который включает меры по поддержке развития технологий, а также определяет роль регулятора в выборе модели регулирования и использовании авторских прав.

В этой ситуации у соседей гарантирован равный доступ разработчиков к большим данным и вычислительным ресурсам, регулируемый законодательными актами. В вопросах позиции регулятора учитываются этические аспекты и внимание к высокорисковым технологиям. "Если говорить точнее - к системам с высокой степенью автономности. Подход дифференцированный — остальные участники рынка могут развиваться в формате саморегулирования," - добавила она.

Что касается соблюдения авторских прав при использовании ИИ, в Казахстане разрешили обучение крупных моделей на открытых авторских произведениях, если автор заранее не установил машиночитаемый запрет. "То есть мы избрали обратный принцип: по умолчанию использование разрешено, а защита действует только в том случае, если автор явно выразил несогласие с применением его контента," - пояснила Смышляева. Такой подход помогает снизить риски и не ограничивать развитие рынка на начальном этапе.

ИИ в Цифровом кодексе

В Цифровом кодексе Кыргызстана уже предусмотрены нормы о регулировании ИИ, рассказал депутат Дастан Бекешев. Развитие технологий в этом контексте рассматривается с точки зрения "технологической нейтральности".

"Это значит, что мы регулируем не сам алгоритм, а сферу его применения. Например, если ИИ используется в финтехе для оценки кредитоспособности, то действуют правила финансового регулятора. Если в медицине для диагностики — правила Минздрава. Мы не создавали какого-то "цифрового монстра", который будет контролировать каждую строчку кода," - пояснил депутат.

Ведущий партнер консорциума по разработке цифрового законодательства Татту Мамбеталиева разъяснила, что основная задача Цифрового кодекса — отказаться от административного регулирования. Вместо этого предлагается взаимодействие с государством на четырех уровнях. Первый — в телеком-секторе, так как это основа технологий. Второй — на уровне систем, третий — сервисов, четвертый — данных (основного элемента, который объединяет все уровни).

Цифровой кодекс относит системы ИИ, используемые для обеспечения цифрового благополучия, к категории повышенного риска. Владельцы и пользователи ИИ, независимо от уровня опасности таких систем, обязаны принимать разумные меры для снижения потенциального вреда и несут ответственность за него в соответствии с законодательством Кыргызстана.

При этом конкретные правила и стандарты разработки и применения ИИ фактически передаются профессиональному сообществу. Они могут быть установлены объединениями владельцев ИИ-систем. Такие регламенты должны охватывать вопросы профессиональной этики, оценки рисков, управления данными, качества разработки и эксплуатации систем и не противоречить положениям кодекса.

Особое внимание уделяется прозрачности. Если ИИ используется для взаимодействия с потребителями, пользователи обязаны уведомлять об этом, за исключением случаев, когда присутствие алгоритма очевидно. Информация о применении ИИ в цифровых правоотношениях считается общедоступной и должна быть размещена в понятной форме на сайтах компаний и отраслевого регулятора национальной экосистемы.

Дополнительные требования вводятся для чувствительных технологий. Пользователи систем распознавания эмоций и классификации людей по биометрическим признакам обязаны отдельно информировать о применении таких решений. Аналогичные правила действуют и для дипфейков: использование ИИ для создания или изменения контента должно сопровождаться раскрытием его искусственного происхождения.

На текущем этапе Кыргызстан акцентирует внимание на осторожном регулировании искусственного интеллекта без жестких запретов, ориентируясь на саморегулирование, ответственность за причинение вреда и прозрачность использования технологий. Такой подход должен сохранить пространство для развития местных ИИ-проектов, не ограничивая рынок на старте, но при этом обозначить "красные линии" для высокорисковых и чувствительных решений. Главный вопрос остается: удастся ли добиться этого баланса на практике.

Фото на главной странице: Shutterstock.
VK X OK WhatsApp Telegram

Читайте также:

Написать номментарий: