Эти вопросы обсуждались на Центральноазиатском киберюридическом форуме.
Суждения экспертов и народных избранников
В Кыргызстане разработчики видят в искусственном интеллекте возможность выхода на международный IT-рынок, как утверждает директор Парка высоких технологий Азис Абакиров.Не стоит подавлять технологические достижения чрезмерными ограничениями. У нас все еще есть более-менее свободный интернет.По его словам, "учитывать этические аспекты и потенциальные угрозы, связанные с ИИ, конечно, нужно. Однако разработчики видят в нем возможность для конкуренции на глобальном уровне. В этом году президент США выделил $500 миллиардов на развитие ИИ, и вскоре в Китае появился DeepSeek. У нас же только небольшая группа людей пытается составить им конкуренцию".
Таким образом, IT-сообщество воспринимает ИИ как возможность для экономического роста, а не как угрозу, требующую немедленных ограничений. С такой же позицией согласен и депутат Жогорку Кенеша Дастан Бекешев, который подчеркнул, что регулирование искусственного интеллекта в стране должно быть очень осторожным.
"Когда речь заходит о регулировании, я опасаюсь, что в Центральной Азии, как и на постсоветском пространстве, это может привести к запретам", - отметил Бекешев.
Он добавил, что в Кыргызстане уже есть свои разработки в области ИИ, такие как Akyl AI и AiRun.
Но это все можно легко уничтожить. Просто введя чрезмерные ограничения."Я считаю, что в Центральной Азии следует обращать внимание на опыт Европы и других стран", - добавил он.
Депутат также отметил, что Европа может ввести строгие меры регулирования, которые повлияют на такие компании, как OpenAI, Google и Meta.
"Можем ли мы это сделать? Нет, это только вызовет у них смех. Почему? Поскольку наш рынок слишком мал. У нас создаются музыкальные произведения с помощью ИИ, и уже начинаются разговоры о запретах. То же самое касается видеогенерации, чтобы избежать глубоких фейков. Я опасаюсь, что подобные ограничения могут навредить нам и не позволят раскрыть таланты, которые у нас есть. Но пока мы можем сказать, что у нас есть наработки в области ИИ", - добавил Бекешев.
Фактически это говорит о страхе повторения привычной для региона практики - применения ограничений вместо комплексного подхода к развитию с учетом существующих рисков.
"Когда речь идет о необходимости регулирования, в разных юрисдикциях говорят о мошенниках, которые могут использовать новые технологии. Но важно понимать, что мошенники могут использовать что угодно", - отметил Денис Садовников, руководитель отдела по защите данных Yango Group, добавив, что "регулирование ИИ не должно восприниматься как запрет".
Многие страны являются примерами для региона. В настоящее время существует несколько концептуальных подходов к регулированию ИИ: европейский, основанный на правах человека, англосаксонский, предполагающий саморегулирование, и сингапурский, который учитывает и права человека, и саморегулирование, рассказала депутат Мажилиса Казахстана Екатерина Смышляева.
"В Казахстане выбрали модель, объединяющую лучшие элементы разных подходов. Противоправные действия должны оставаться в центре внимания, и некоторые запретительные меры регулирования должны быть связаны только с такими действиями", - сообщила она.
Смышляева также отметила, что многие алгоритмические решения ИИ могут быть не противозаконными, но все же представлять угрозу для общества. Депутат подчеркнула, что в Казахстане был разработан и принят закон об ИИ, который включает меры по поддержке развития технологий, а также определяет позицию регулятора в отношении выбора модели регулирования и использования авторских прав.
Казахстанские разработчики имеют равный доступ к большим данным и вычислительным ресурсам, что регулируется законодательством. Вопросы позиции регулятора учитывают этические аспекты и внимание к высокорисковым технологиям. "Говоря точнее, речь идет о системах с высокой степенью автономности. Подход дифференцирован, другие участники рынка могут развиваться в формате саморегулирования", - добавила она.
Что касается соблюдения авторских прав при использовании ИИ, в Казахстане разрешили обучение крупных моделей на открытых авторских произведениях, если автор заранее не установил машиночитаемый запрет. "Таким образом, мы применили обратный принцип: по умолчанию использование допускается, а защита действует только в случае, если автор ясно выразил несогласие с использованием его контента", - пояснила Смышляева. Этот подход снижает риски и не ограничивает развитие рынка на начальном этапе.
ИИ в рамках Цифрового кодекса
Нормы регулирования ИИ уже включены в Цифровой кодекс Кыргызстана, сообщил депутат Дастан Бекешев. Развитие технологий рассматривается в контексте принципа "технологической нейтральности"."Это означает, что мы регулируем не сам алгоритм, а область его применения. Например, если ИИ используется в финтехе для оценки кредитоспособности, действуют правила финансового регулятора. Если в медицине для диагностики - правила Минздрава. Мы не создаем какого-либо "цифрового монстра", который будет следить за каждой строкой кода", - пояснил депутат.
Татту Мамбеталиева, ведущий партнер консорциума по разработке цифрового законодательства, разъяснила, что основная задача Цифрового кодекса - отказаться от административного регулирования. Вместо этого предлагается взаимодействие с государством на четырех уровнях: первый - телеком-секторы, поскольку они являются основой технологий; второй - на уровне систем, третий - сервисов и четвертый - данных (основного элемента, объединяющего все уровни).
Цифровой кодекс относит системы ИИ, используемые для обеспечения цифрового благополучия, к категории повышенного риска. Владельцы и пользователи ИИ, независимо от уровня их опасности, обязаны принимать разумные меры для снижения возможного вреда и несут ответственность за причиненный вред в соответствии с законодательством Кыргызстана.
Конкретные правила и стандарты разработки и использования ИИ фактически передаются профессиональному сообществу. Их могут устанавливать объединения владельцев ИИ-систем, охватывающие вопросы профессиональной этики, оценки рисков, управления данными, а также качества разработки и эксплуатации систем, что не должно противоречить положениям кодекса.
Особое внимание уделяется прозрачности. Если ИИ применяется для взаимодействия с потребителями, пользователи должны быть об этом уведомлены, кроме случаев, когда присутствие алгоритма очевидно. Информация о применении ИИ в цифровых правоотношениях считается общедоступной и должна быть размещена в доступной форме на веб-сайтах компаний и отраслевого регулятора национальной экосистемы.
Дополнительные требования вводятся для чувствительных технологий. Пользователи систем, занимающихся распознаванием эмоций и классификацией людей по биометрическим признакам, обязаны отдельно уведомлять о применении таких решений. Аналогичное правило применяется и к дипфейкам: использование ИИ для создания или изменения контента должно сопровождаться указанием на его искусственное происхождение.
На данный момент Кыргызстан нацеливается на осторожное регулирование искусственного интеллекта без жестких запретов, акцентируя внимание на саморегулировании, ответственности за причиненный вред и прозрачности использования технологий. Этот подход должен сохранить пространство для роста местных ИИ-проектов, не ограничивая рынок на старте, но также обозначить "красные линии" для высокорисковых и чувствительных решений. Главный вопрос остается открытым: удастся ли сохранить этот баланс в реальности.
Фото на главной странице: Shutterstock.