Сможет ли ООН остановить гонку искусственного интеллекта?

Сергей Гармаш Политика видео
VK X OK WhatsApp Telegram
Сможет ли ООН остановить гонку искусственного интеллекта?


22 октября 2025 года более 700 экспертов, включая религиозных лидеров и политиков, подписали открытое письмо, в котором призвали к запрету на разработку сверхразумного ИИ. Среди подписантов присутствуют пять лауреатов Нобелевской премии, два "отца-основателя ИИ" — Джеффри Хинтон и Йошуа Бенжио, соучредитель Apple Стив Возняк, а также другие известные личности, такие как Стив Бэннон и герцоги Сассекские Гарри и Меган, как сообщает издание "Фонд стратегической культуры".

В письме подчеркивается необходимость введения моратория на создание сверхразумного ИИ до тех пор, пока не будет достигнут научный консенсус о безопасности и контроле этого процесса, а также не получена широкая поддержка общества.

Авторами письма выступила американская НПО Future Life Institute, ранее в 2023 году также призывавшая к шестимесячной паузе в разработках мощных ИИ-систем. Однако это предыдущее обращение не имело существенного влияния.

Новый призыв совпадает с предстоящими дебатами в Совете Безопасности ООН на тему "Искусственный интеллект и международный мир и безопасность".

Участники заседания единодушно отметили, что ИИ может принести как положительные, так и отрицательные последствия, и настоятельно призывали к созданию международных норм, особенно в отношении автономного и ядерного оружия.

Представитель Белоруссии выделил важное замечание о растущем неравенстве в развитии ИИ: "Новый занавес, не идеологический, а технологический, разделяет Запад и остальной мир, создавая неоколониальные условия для большинства стран", — отметил он, подчеркивая необходимость доступности ИИ для всех.

Премьер-министр Испании, Педро Санчес, выразил оптимизм, заявив, что развитие ИИ не остановить, но его возможно контролировать.

Генеральный секретарь ООН, Антониу Гутерриш, подчеркнул, что впервые каждая страна будет представлена на переговорах по вопросам ИИ, и объявил о начале формирования новой Международной независимой научной группы, которая будет обеспечивать беспристрастные научные данные о воздействии технологий.

Следует напомнить, что 26 августа 2025 года Генеральная Ассамблея ООН приняла резолюцию A/RES/79/325, известную как "Резолюция по модальностям ИИ", которая создает два новых механизма для глобального управления ИИ: Независимую международную научную панель и Глобальный диалог по управлению ИИ.

Научная панель будет состоять из 40 экспертов и будет ежегодно предоставлять отчеты о развитии ИИ по всему миру.

Глобальный диалог станет платформой для открытого обсуждения вопросов безопасности, прозрачности и цифрового разрыва, включая участие государств, технологических компаний и гражданского общества.

Если усилия ООН будут успешны, компании, работающие в области ИИ, могут быть обязаны демонстрировать безопасность своих технологий перед их выходом на рынок, как это происходит в медицине и атомной энергетике.

В Соединенных Штатах уже начались шаги по регулированию исследований в области ИИ.

1 июля 2025 года Сенат США проголосовал за отмену моратория на государственное регулирование ИИ в рамках законопроекта "Один большой красивый законопроект" президента Трампа, что стало значительным ударом для технологической отрасли, выступавшей за сохранение этого положения.

Демократы и некоторые республиканцы, включая сенатора Джоша Хоули и Маршу Блэкберн, поддержали это голосование, что стало неожиданностью для республиканского руководства.

Сопротивление со стороны технологических лоббистов было преодолено благодаря давлению правозащитных организаций, утверждающих, что мораторий защищает компании от надлежащего государственного контроля.

Стивен Бэннон в своем подкасте обсуждал отмену моратория, утверждая, что он угрожает правам штатов. Сенатор Анджела Пакстон также выступала против моратория, как и другие известные правозащитники.

Тем не менее, отмена моратория не означает, что контроль над исследованиями ИИ в США перейдет к ООН.

Летом прошлого года администрация Трампа разработала указ, который предполагает создание "Манхэттенских проектов" в области военных технологий и отмену "обременительного регулирования", что говорит о возможной политике следующей администрации в пользу инвесторов Кремниевой долины, как отмечает The New York Times.

Конгресс США сосредоточится на регулировании конкретных угроз, таких как "неконсенсуальная глубокая фейковая порнография", которая стала распространенной благодаря новым инструментам ИИ.

При этом развитие ИИ в военных целях будет продолжаться ускоренными темпами.

В августе 2023 года Пентагон создал оперативную группу "Лима" для изучения применения генеративного ИИ в военных задачах, возглавляемую капитаном Ксавьером Луго.

Министерство обороны США планирует инвестировать рекордные $13,4 миллиарда в развитие ИИ и автономных систем вооружений в рамках бюджета на 2026 финансовый год.

Проект бюджета включает целевое финансирование для беспилотных систем и интеграции ИИ, выделяя $9,4 миллиарда на беспилотные летательные аппараты и другие суммы на морские и наземные платформы.

Законодательство, касающееся оборонного бюджета, уже прошло через палату представителей и включает значительные средства на ИИ и беспилотники, что подтверждает продолжающееся внимание к военному использованию технологий.

Таким образом, несмотря на призывы к регулированию ИИ и добрые намерения ООН, США продолжают наращивать финансирование военных проектов в области ИИ. Все разработки останутся под грифом секретности, и эксперты ООН не получат информации о них, пока технологии не окажутся в гражданском секторе.

Китай, в свою очередь, также будет увеличивать инвестиции в боевые системы ИИ, следуя примеру США.

Другие страны также последуют за двумя ведущими игроками в этой области.

Пока ООН будет разрабатывать рекомендации по контролю над ИИ, триллионы долларов, уже вложенные в разработку боевых систем, вряд ли будут учтены.
VK X OK WhatsApp Telegram

Читайте также:

Написать номментарий: