Мировые регуляторы смягчают подходы к генеративному ИИ
Мировые регуляторы смягчают подходы к генеративному ИИ на фоне роста конкуренции за ИИ-разработки.
Ряд стран, ранее ориентировавшихся на жесткое регулирование генеративного искусственного интеллекта, корректируют свои подходы, смещая фокус от универсальных ограничений к управлению рисками. Этот тренд отражает изменение глобального регуляторного ландшафта ИИ и усиливающуюся конкуренцию между регионами за технологическое лидерство и инвестиции в ИИ-экосистемы.
На сегодняшний день в мировой практике сформировались три основных подхода к регулированию искусственного интеллекта. Консервативная модель предполагает создание комплексных нормативных актов, регулирующих весь жизненный цикл ИИ-систем и предусматривающих ограничения или моратории на использование решений с высоким уровнем риска. Такой подход применяется, в частности, в Казахстане. Гибридная модель сочетает рамочное законодательство, секторальные нормы и элементы саморегулирования. Этот подход характерен для России и ряда стран Юго-Восточной Азии и позволяет сочетать контроль рисков с сохранением пространства для технологических экспериментов. Проинновационная модель минимизирует прямое вмешательство регулятора и делает ставку на добровольные стандарты и ответственность разработчиков. Ее придерживаются, в частности, Саудовская Аравия и ОАЭ, рассматривающие ИИ как стратегический фактор экономического развития.
В России применяется гибридная модель регулирования ИИ, основанная на рамочных стратегических документах, отраслевых кодексах и механизмах саморегулирования. Более 900 организаций присоединились к Кодексу этики в сфере ИИ, а ведущие игроки рынка подписали Декларацию об ответственном генеративном ИИ. Дополнительно используются регуляторные «песочницы», меры финансового стимулирования и инструменты поддержки экспорта ИИ-технологий, включая снижение административных барьеров.
К числу ключевых рисков, связанных с развитием генеративного ИИ, регуляторы относят распространение вводящего в заблуждение контента, непрозрачность алгоритмов, автономность ИИ-систем и использование технологий в противоправных целях. Вместе с тем международная практика показывает, что жесткие запреты не устраняют эти риски, а могут замедлять развитие рынка.
В результате все больше стран переходят к адаптивному регулированию, предполагающему дифференциацию требований в зависимости от сферы применения ИИ и развитие механизмов добровольных стандартов и машиночитаемого права.
Источник: ИТ Медиа
Комментарии