Новый закон об ИИ разделит нейросети на “свои” и “чужие”

Новости IT
Фото сделано с помощью gigachat
Фото сделано с помощью gigachat

Правительство России завершает подготовку законопроекта «Об искусственном интеллекте в РФ», который впервые на законодательном уровне введет классификацию нейросетей по признаку национальной принадлежности.

Документ, работа над которым выходит на финишную прямую, разделит все системы ИИ на суверенные, национальные и доверенные, установив жесткие требования к их происхождению, данным и безопасности.

Согласно законопроекту, суверенная модель ИИ представляет собой наиболее жесткий вариант реализации технологии. Все стадии ее разработки, обучения и эксплуатации должны осуществляться на территории России исключительно россиянами или отечественными компаниями. Критически важно, что такая модель обязана обучаться с использованием наборов данных, сформированных внутри страны, и не может содержать компоненты, разработанные за рубежом.

Более мягкая категория — национальная модель ИИ — допускает использование иностранных open-source-решений в качестве основы, а также разрешает применение зарубежных датасетов при обучении. Это своеобразный “компромиссный вариант” для разработчиков, которые опираются на глобальные технологические наработки, но адаптируют их под российские реалии.

Третья категория — доверенная модель искусственного интеллекта — предназначена исключительно для работы с критической информационной инфраструктурой. Ее безопасность должна быть подтверждена сертификатами ФСТЭК и ФСБ, что фактически закрывает этот сегмент для любых иностранных решений.

Полигон для “умных” машин

Важным элементом новой системы регулирования станет создание специального полигона для тестирования ИИ-систем высокого и критического уровня риска. Эту площадку, как следует из документов, организует Минцифры.

Законопроект вводит четыре уровня критичности систем искусственного интеллекта:

  • Минимальный — для рекомендательных систем, не влияющих существенно на права и безопасность граждан

  • Ограниченный — обязывает информировать пользователей о взаимодействии с нейросетью

  • Высокий — для систем, используемых на объектах критической информационной инфраструктуры

  • Критический — для разработок, способных принимать решения без вмешательства человека и угрожающих жизни, здоровью или безопасности государства.

Определять уровень критичности каждой системы будет специально созданный Национальный центр искусственного интеллекта в сфере госуправления при правительстве. Эта же структура станет вести реестр систем, допущенных к работе на критической инфраструктуре.

Запрет на “чужие мозги”

Один из наиболее резонансных пунктов законопроекта — запрет на использование на критической информационной инфраструктуре ИИ-систем, права на которые принадлежат иностранным лицам. Авторы документа объясняют эту меру необходимостью обеспечения технологического суверенитета и защиты данных от возможной передачи зарубежным спецслужбам .

Для получения обязательного сертификата ФСБ и ФСТЭК ИИ-система должна будет входить в реестр российского или евразийского софта. Требования для сертификации систем высокого и критического уровней будут установлены отдельным документом позднее .

Дилемма безопасности и развития

Эксперты рынка оценивают инициативу неоднозначно. Павел Растопшин, генеральный директор ГК «Ультиматек», указывает на фундаментальную проблему: “Существуют так называемые строгие модели — они работают не на основе ИИ, а на математических уравнениях и способны предсказывать то или иное событие. Такие модели можно проверить и сертифицировать, так как их поведение предсказуемо в отличие от нейросетей”.

По его словам, перед регулятором встанет непростой выбор: либо установить запретительный режим для любых ИИ-разработок в критической информационной инфраструктуре, что заморозит цифровизацию ряда отраслей, либо искать новые принципы регулирования, поскольку традиционными методами невозможно гарантировать безопасность нейросетей, “чьи решения необъяснимы, а ошибки непредсказуемы”.

Виталий Попов из «Софтлайн Решения» считает осторожность государства оправданной: “Когда речь идет о зарубежных ИИ-системах, особенно публичных, мы не до конца понимаем, что у них внутри: на каких данных они обучались, какую логику используют и как именно формируются ответы”.

Однако он предупреждает и об обратной стороне жестких ограничений: “Если резко сказать, что этого нельзя делать, у кого-то просто перестанут работать процессы, и все придется переделывать в аварийном режиме. Многие компании уже используют зарубежные ИИ-решения, включая open source модели”.

Иллюзия полной независимости

Директор Центра развития ИИ-продуктов IT-экосистемы «Лукоморье» Денис Романов обращает внимание на то, что полностью независимого ИИ в России на данный момент не существует, если говорить о полной цепочке — от чипов до данных. Некоторые отечественные решения используют открытые зарубежные модели в качестве основы.

“Ключевой фактор — не происхождение архитектуры, а контроль над развертыванием, данными и обновлениями. Если модель развернута локально, обучена на отечественных данных и не зависит от внешнего программного интерфейса, риски минимальны”, — уверен Романов.

Рынок в цифрах

По оценке аналитической компании Smart Ranking, в 2025 году объем рынка ИИ в России вырос на 25–30% и достиг 1,9 трлн рублей. При этом 95% выручки от монетизации технологий искусственного интеллекта пришлось на топ-5 компаний: «Яндекс» (500 млрд руб.), «Сбер» (400 млрд руб.), «Т-Технологии» (350 млрд руб.), VK (119 млрд руб.) и «Лабораторию Касперского» (более 49 млрд руб.).

Именно эти гиганты, по мнению аналитиков, станут главными бенефициарами нового регулирования, получив стабильный поток госзаказов, а их сертифицированные решения могут стать стандартом де-факто для всех критически важных сфер.

Маркировка и ответственность

Помимо классификации моделей, законопроект вводит требования по маркировке контента, созданного с помощью ИИ. Операторов обяжут сообщать пользователям о взаимодействии с нейросетями, а распространение ИИ-контента в противоправных целях станет отягчающим обстоятельством, например при вмешательстве в выборы или манипуляции общественным мнением.

Отдельно прописываются вопросы авторского права: разработчики и владельцы данных смогут претендовать на правовую охрану ИИ-продуктов “при наличии творческого вклада”.

Баланс безопасности и развития

Вице-премьер Дмитрий Григоренко, курирующий разработку документа, неоднократно подчеркивал необходимость сохранять баланс: с одной стороны, минимизировать риски применения ИИ в сферах с высокой ценой ошибки (здравоохранение, образование, судопроизводство, общественная безопасность), с другой — не допустить замедления развития технологии и не “задушить” ее чрезмерными ограничениями.

Важно, что распространять жесткие требования на коммерческий сектор в целом пока не планируется — исключение составят лишь объекты критической инфраструктуры. Это, по мнению первого замглавы комитета Госдумы по информполитике Антона Горелкина, позволит отрасли развиваться без излишних ограничителей.

Перспективы

Законопроект станет рамочным документом, который введет базовые понятия и принципы регулирования стремительно развивающейся сферы. Более детальные требования для различных категорий ИИ-систем будут разрабатываться уже после принятия основного закона.

Россия, таким образом, пытается найти собственный путь в регулировании одной из самых мощных технологий современности. Стремление обезопасить критическую инфраструктуру и обеспечить технологический суверенитет понятно, но важно, чтобы создаваемый “полигон для ИИ” не превратился в изолированный заповедник, оторванный от глобальных трендов и реальных потребностей экономики.

С уважением к Вашему делу, Ника Виноградова

Источники:

Sostav.ru

Smotrim.ru

Еxpert.ru

Dumatv.ru

Lite.mir24.tv

Кommersant.ru

 

Поделиться:

Добавить комментарий