ИИ под контроль: что планируется в России

Никита Пашкин

26 Апреля 2025 в 08:00
Искусственный интеллект (ИИ) стремительно меняет экономику, безопасность и повседневную жизнь. Однако его развитие несет не только возможности, но и риски: от массовой потери рабочих мест до угроз приватности и кибербезопасности.

В России, как и во многих странах, идет активная работа над установлением правовых рамок для ИИ.

Почему надо контролировать ИИ

Одна из ключевых проблем, которая привлекает внимание экспертов, связана с безопасностью. ИИ нуждается в данных для обучения, и эти данные нужно откуда-то получать. Обычно их берут из открытых источников, но некоторые компании используют контент, созданный их собственными пользователями. Такой массовый сбор и анализ информации может вызывать проблемы с конфиденциальностью, нарушать право на частную жизнь и создавать риски утечки данных. Помимо этого, нейросети обучаются на произведениях, которые принадлежат другим авторам, что поднимает вопрос об интеллектуальной собственности.

Еще одна проблема, связанная с ИИ-продуктами, – вопрос правовой ответственности за принимаемые ими решения. Например, кто несет ответственность за аварию с участием автономного транспорта – ИИ, водитель-страховщик или производитель машины? Подобный случай создает правовой прецедент, который потребует юридического обоснования.

Наконец, существует проблема, которая тревожит человечество со времён фантастических фильмов и литературных произведений о будущем и роботах — искусственный интеллект (ИИ) становится умнее человека. Если раньше это было лишь темой для философских размышлений и волновало лишь фантастов, то теперь это становится реальной угрозой. В настоящее время ведется активная работа над созданием глобального проекта общего ИИ (AGI). Цель проекта — разработать автономный ИИ, способный к самообучению и превосходящий по способностям талантливых людей.

Российская стратегия развития ИИ до 2030 года

10 октября 2019 года Указом Президента РФ №490 утверждена «Национальная стратегия развития искусственного интеллекта на период до 2030 года».

Стратегия развития ИИ в России включает в себя ряд задач, среди которых:

  • Обеспечение доступности инфраструктуры, необходимой для развития технологий ИИ. Планируется предоставить доступ к вычислительным мощностям на льготных условиях для разработки технологий ИИ.
  • Поддержка организаций, занимающихся разработкой технологий ИИ. В рамках этой задачи планируется создание отечественных открытых библиотек ИИ, репозиториев данных и решений в области ИИ.
  • Поддержка научных исследований и разработок для обеспечения опережающего развития ИИ.
  • Повышение уровня компетенций в области ИИ и информированности граждан о технологиях ИИ. К 2030 году планируется подготовить более 70 тыс. специалистов в этой области.
  • Стимулирование внедрения технологий ИИ в различных отраслях экономики и социальной сфере.
  • Обязательное внедрение доверенных технологий ИИ в тех областях, где их использование может нанести ущерб безопасности России.
  • Создание комплексной системы нормативно-правового регулирования общественных отношений, связанных с развитием и использованием технологий ИИ, а также обеспечение безопасности применения таких технологий.
  • Укрепление международного сотрудничества в области использования технологий ИИ.

Стратегия также предполагает создание в России нейроморфных и тензорных процессоров, использование платформы «Гостех» для внедрения ИИ в органах государственной власти и запрет на делегирование принятия решений алгоритмами ИИ.

В феврале 2024 года Владимир Путин подписал указ, который вносит поправки в стратегию. Изменения направлены на укрепление технологического суверенитета, повышение качества и эффективности работы в сфере ИИ, а также на создание правовой базы для регулирования этой сферы.

Кодекс этики ИИ в России

В России 26 октября 2021 года был принят Кодекс этики в сфере искусственного интеллекта (КЭСИИ). Этот документ был разработан Альянсом в сфере ИИ, который объединяет ведущие технологические компании России. В создании кодекса также участвовали Аналитический центр при Правительстве РФ и Минэкономразвития.

Кодекс предназначен для систем ИИ, которые используются исключительно в гражданских, а не военных целях. Документ не имеет юридической силы, его положения являются добровольными для соблюдения.

Основные принципы работы КЭСИИ:

  1. В основе развития технологий ИИ лежит защита прав и свобод человека, которые рассматриваются как наивысшая ценность.
  2. Особое внимание уделяется инфобезопасности, недискриминации, прозрачности и достоверности информации, а также ответственному подходу к работе с данными.
  3. Технологии ИИ должны использоваться там, где они приносят пользу людям. При этом ответственность за возможные последствия всегда лежит на человеке.
  4. Граждане должны быть полностью информированы об уровне развития технологий ИИ, их возможностях, рисках, успехах и неудачах в применении. Информация должна быть максимально полной и достоверной.

В документе, состоящем из 33 пунктов, изложены основные моральные и этические принципы для организаций и частных лиц, использующих ИИ.

Некоторые рекомендации, предложенные Комиссией по этике в сфере искусственного интеллекта (КЭСИИ):

  1. Сотрудничать в выявлении и проверке информации о методах создания универсальных систем ИИ.
  2. Информировать пользователей об их взаимодействии с системами ИИ.
  3. Предоставить возможность пользователям по их желанию прекратить взаимодействие с системами ИИ.
  4. Предотвращать потенциальные угрозы, связанные с использованием технологии ИИ.

Хотя КЭСИИ носит рекомендательный характер, компании, подписавшие кодекс, должны назначить уполномоченных по этике ИИ, которые будут следить за его соблюдением.

В 2024 году НИУ ВШЭ разработал «Декларацию этических принципов создания и использования систем искусственного интеллекта». В соответствии с декларацией, ИИ не должен заменять живое общение, а его использование должно способствовать укреплению межличностных отношений и совместной работы.

Рабочая группа Госдумы по регулированию ИИ

В начале апреля 2025 года в Госдуме сформировалась межфракционная рабочая группа, которая будет заниматься разработкой законов, регулирующих применение ИИ. В состав группы вошли представители всех фракций. Ее задача – обеспечить законодательное регулирование национально ориентированного ИИ. Работа группы продлится до окончания полномочий восьмого созыва, то есть до 2026 года.

По словам депутата Андрея Свинцова (ЛДПР), цель группы – как можно скорее изучить потребности всех заинтересованных сторон, начиная от малого и среднего бизнеса и заканчивая интересами государства. Необходимо определить приоритетные вопросы регулирования, поскольку в российском законодательстве пока нет четких правил, регулирующих применение ИИ.

В ходе заседания рабочей группы по ИИ депутаты будут обсуждать вопросы, связанные с эффективным применением ИИ в различных отраслях. В частности, будут рассматриваться законопроекты, касающиеся национальной безопасности и обороны страны. Депутаты будут работать над инициативами, направленными на предотвращение использования ИИ в преступных целях.

Задачей рабочей группы является создание правовой базы для использования ИИ в стратегическом планировании социально-экономического развития России.

В предварительном документе (есть в распоряжении РБК) содержатся следующие положения:

  • Определение ИИ и технологий, связанных с ним.
  • Описание систем ИИ.
  • Информация о разработчиках, операторах и пользователях таких систем.
  • Требования к маркировке систем ИИ, которые должны содержать информацию об использовании искусственного интеллекта при взаимодействии с пользователем.
  • Классификация систем ИИ по уровню потенциального риска. Запрет на разработку и эксплуатацию систем с неприемлемым уровнем риска, которые могут представлять угрозу для безопасности личности, общества и государства, а также нарушать основополагающие права и свободы человека и гражданина.
  • Ответственность за причинение вреда жизни, здоровью или имуществу для лиц, участвующих в разработке и эксплуатации систем ИИ.
  • Если в процессе интеллектуальной деятельности, созданной с использованием ИИ, был существенный вклад человека, то права на результаты такой деятельности будут принадлежать ему. Если вклада не было, то права будут принадлежать оператору системы ИИ.

В правительстве планируют оценить проект, когда он поступит к ним. Зампред комитета по информационной политике, член рабочей группы по ИИ в Госдуме Андрей Свинцов сообщил, что в ближайшие месяцы ожидаются инициативы, регулирующие отдельные вопросы, связанные с ИИ. Однако комплексного законопроекта в этом году он не ожидает.

Как это делают в других странах

В августе 2024 года в Евросоюзе был принят закон AI Act, который устанавливает строгие ограничения на использование алгоритмов в чувствительных областях. Организация экономического сотрудничества и развития (ОЭСР) разработала принципы ответственной разработки ИИ. ЮНЕСКО выпустила рекомендации, направленные на предотвращение дискриминации и нарушений прав человека в этой сфере.

В Бразилии в 2023 году сенаторы подготовили обширный доклад, посвященный ИИ. В нем содержится проект закона о правах пользователей систем ИИ. Законодатели пошли по пути своих европейских коллег и предложили классифицировать системы ИИ в зависимости от потенциальных рисков для общества. Классификации подвергаются системы ИИ, которые могут представлять высокий риск для общества, включают использование ИИ в медицине, системах идентификации по биометрическим данным, кредитном скоринге и других сферах. Пользователи должны знать, что они взаимодействуют с системой ИИ, а также понимать, как именно ИИ принял то или иное решение. Они также могут оспаривать решения ИИ и требовать вмешательства человека. Разработчики систем ИИ несут ответственность за ущерб, причиненный их системами. Чем выше риск, тем выше уровень ответственности разработчиков в случае возникновения проблем.

В Китае применяют трехступенчатый подход к регулированию ИИ: на первом этапе происходит постепенное ослабление ограничений, затем, при обнаружении рисков, контроль ужесточается, а на третьем этапе происходит стабилизация нормативной базы.

Вот некоторые меры контроля, которые применяются в Китае:

  • Обязательная регистрация услуг и алгоритмов. Никто не может внедрить новую услугу или алгоритм ИИ без соответствующего разрешения.
  • Обязательная маркировка контента, созданного с помощью ИИ.
  • Защита интеллектуальной собственности. Модели должны обучаться на данных, которые не нарушают авторские права.
  • Обязательная проверка безопасности перед запуском сервисов ИИ.
  • Обязательство создавать механизмы для обработки жалоб на свои услуги и контент, что повышает прозрачность работы ИИ.

Основные правовые документы, которые формируют основу для управления ИИ в Китае, включают «Временные меры по управлению услугами генеративного искусственного интеллекта», «Административные положения о рекомендательных алгоритмах в информационных интернет-сервисах» (2021 год) и «Административные положения о глубоком синтезе в информационных интернет-сервисах» (2022 год).