Станислав Ежов, «Группа Астра»: «Доверенный ИИ начинается не с выбора модели, а с проектирования контура»
Разработка системы технической целостности оборудования для нефтегазовой компании
Система защиты конечных устройств для международной промышленной компании
Эксперт компании «Газинформсервис» предложила инструмент, оценивающий безопасность ИИ
Обзор обновленной версии платформы автоматизации ИТ-операций Astra Automation 2.0
ЦБ
°
вторник, 28 апреля 2026

Мировые регуляторы смягчают подходы к генеративному ИИ на фоне роста конкуренции за ИИ-разработки

Ряд стран, ранее ориентировавшихся на жесткое регулирование генеративного искусственного интеллекта, корректируют свои подходы, смещая фокус от универсальных ограничений к управлению рисками. Этот тренд отражает изменение глобального регуляторного ландшафта ИИ и усиливающуюся конкуренцию между регионами за технологическое лидерство и инвестиции в ИИ-экосистемы.

На сегодняшний день в мировой практике сформировались три основных подхода к регулированию искусственного интеллекта. Консервативная модель предполагает создание комплексных нормативных актов, регулирующих весь жизненный цикл ИИ-систем и предусматривающих ограничения или моратории на использование решений с высоким уровнем риска. Такой подход применяется, в частности, в Казахстане. Гибридная модель сочетает рамочное законодательство, секторальные нормы и элементы саморегулирования. Этот подход характерен для России и ряда стран Юго-Восточной Азии и позволяет сочетать контроль рисков с сохранением пространства для технологических экспериментов. Проинновационная модель минимизирует прямое вмешательство регулятора и делает ставку на добровольные стандарты и ответственность разработчиков. Ее придерживаются, в частности, Саудовская Аравия и ОАЭ, рассматривающие ИИ как стратегический фактор экономического развития.

Согласно данным исследования Oxford Insights за 2025 год, страны Юго-Восточной Азии демонстрируют рост показателей готовности к ИИ на фоне усиления институционального управления. Так, Вьетнам и Индонезия получили рейтинги 60,0 и 59,9 соответственно при среднемировом уровне 42,5. Средний показатель по региону составил 50,3. При этом регулирование в регионе носит стимулирующий характер и ориентировано на разработку национальных стратегий, инвестиции в исследования и международную координацию. Вьетнам, в частности, заявил о планах по принятию специализированного закона об ИИ в ближайшее время.

Регион Ближнего Востока и Северной Африки продолжает укреплять позиции как одна из наиболее динамичных ИИ-экосистем. Саудовская Аравия и ОАЭ имеют рейтинги готовности к ИИ 71,6 и 69,9 соответственно при среднем показателе по региону 45,5. В регионе активно развиваются собственные ИИ-платформы, вычислительная инфраструктура и научные центры. Цель таких инвестиций — формирование полного технологического цикла ИИ и снижение зависимости от зарубежных решений. Отдельный акцент делается на разработку эффективных моделей с оптимизированными архитектурами, а не на экстенсивный рост их параметров.

Казахстан и Узбекистан демонстрируют показатели готовности к ИИ выше среднемировых — 56,7 и 56,1 соответственно при среднем значении по региону 42,1. В 2025 году Казахстан запустил собственный суперкомпьютер, а Узбекистан обозначил цель подготовки до 5 млн специалистов в области ИИ к 2030 году. По словам Романа Яшина, директора ГК Softline в Центральной Азии, регион находится на стадии формирования инфраструктурного и кадрового задела, необходимого для дальнейшего развития ИИ-проектов.

В России применяется гибридная модель регулирования ИИ, основанная на рамочных стратегических документах, отраслевых кодексах и механизмах саморегулирования. Более 900 организаций присоединились к Кодексу этики в сфере ИИ, а ведущие игроки рынка подписали Декларацию об ответственном генеративном ИИ. Дополнительно используются регуляторные «песочницы», меры финансового стимулирования и инструменты поддержки экспорта ИИ-технологий, включая снижение административных барьеров.

К числу ключевых рисков, связанных с развитием генеративного ИИ, регуляторы относят распространение вводящего в заблуждение контента, непрозрачность алгоритмов, автономность ИИ-систем и использование технологий в противоправных целях. Вместе с тем международная практика показывает, что жесткие запреты не устраняют эти риски, а могут замедлять развитие рынка.

В результате все больше стран переходят к адаптивному регулированию, предполагающему дифференциацию требований в зависимости от сферы применения ИИ и развитие механизмов добровольных стандартов и машиночитаемого права.

Свежее по теме