ИИ под контроль: что планируется в России
В России, как и во многих странах, идет активная работа над установлением правовых рамок для ИИ.
Почему надо контролировать ИИ
Одна из ключевых проблем, которая привлекает внимание экспертов, связана с безопасностью. ИИ нуждается в данных для обучения, и эти данные нужно откуда-то получать. Обычно их берут из открытых источников, но некоторые компании используют контент, созданный их собственными пользователями. Такой массовый сбор и анализ информации может вызывать проблемы с конфиденциальностью, нарушать право на частную жизнь и создавать риски утечки данных. Помимо этого, нейросети обучаются на произведениях, которые принадлежат другим авторам, что поднимает вопрос об интеллектуальной собственности.
Еще одна проблема, связанная с ИИ-продуктами, – вопрос правовой ответственности за принимаемые ими решения. Например, кто несет ответственность за аварию с участием автономного транспорта – ИИ, водитель-страховщик или производитель машины? Подобный случай создает правовой прецедент, который потребует юридического обоснования.
Наконец, существует проблема, которая тревожит человечество со времён фантастических фильмов и литературных произведений о будущем и роботах — искусственный интеллект (ИИ) становится умнее человека. Если раньше это было лишь темой для философских размышлений и волновало лишь фантастов, то теперь это становится реальной угрозой. В настоящее время ведется активная работа над созданием глобального проекта общего ИИ (AGI). Цель проекта — разработать автономный ИИ, способный к самообучению и превосходящий по способностям талантливых людей.
Российская стратегия развития ИИ до 2030 года
10 октября 2019 года Указом Президента РФ №490 утверждена «Национальная стратегия развития искусственного интеллекта на период до 2030 года».
Стратегия развития ИИ в России включает в себя ряд задач, среди которых:
- Обеспечение доступности инфраструктуры, необходимой для развития технологий ИИ. Планируется предоставить доступ к вычислительным мощностям на льготных условиях для разработки технологий ИИ.
- Поддержка организаций, занимающихся разработкой технологий ИИ. В рамках этой задачи планируется создание отечественных открытых библиотек ИИ, репозиториев данных и решений в области ИИ.
- Поддержка научных исследований и разработок для обеспечения опережающего развития ИИ.
- Повышение уровня компетенций в области ИИ и информированности граждан о технологиях ИИ. К 2030 году планируется подготовить более 70 тыс. специалистов в этой области.
- Стимулирование внедрения технологий ИИ в различных отраслях экономики и социальной сфере.
- Обязательное внедрение доверенных технологий ИИ в тех областях, где их использование может нанести ущерб безопасности России.
- Создание комплексной системы нормативно-правового регулирования общественных отношений, связанных с развитием и использованием технологий ИИ, а также обеспечение безопасности применения таких технологий.
- Укрепление международного сотрудничества в области использования технологий ИИ.
Стратегия также предполагает создание в России нейроморфных и тензорных процессоров, использование платформы «Гостех» для внедрения ИИ в органах государственной власти и запрет на делегирование принятия решений алгоритмами ИИ.
В феврале 2024 года Владимир Путин подписал указ, который вносит поправки в стратегию. Изменения направлены на укрепление технологического суверенитета, повышение качества и эффективности работы в сфере ИИ, а также на создание правовой базы для регулирования этой сферы.
Кодекс этики ИИ в России
В России 26 октября 2021 года был принят Кодекс этики в сфере искусственного интеллекта (КЭСИИ). Этот документ был разработан Альянсом в сфере ИИ, который объединяет ведущие технологические компании России. В создании кодекса также участвовали Аналитический центр при Правительстве РФ и Минэкономразвития.
Кодекс предназначен для систем ИИ, которые используются исключительно в гражданских, а не военных целях. Документ не имеет юридической силы, его положения являются добровольными для соблюдения.
Основные принципы работы КЭСИИ:
- В основе развития технологий ИИ лежит защита прав и свобод человека, которые рассматриваются как наивысшая ценность.
- Особое внимание уделяется инфобезопасности, недискриминации, прозрачности и достоверности информации, а также ответственному подходу к работе с данными.
- Технологии ИИ должны использоваться там, где они приносят пользу людям. При этом ответственность за возможные последствия всегда лежит на человеке.
- Граждане должны быть полностью информированы об уровне развития технологий ИИ, их возможностях, рисках, успехах и неудачах в применении. Информация должна быть максимально полной и достоверной.
В документе, состоящем из 33 пунктов, изложены основные моральные и этические принципы для организаций и частных лиц, использующих ИИ.
Некоторые рекомендации, предложенные Комиссией по этике в сфере искусственного интеллекта (КЭСИИ):
- Сотрудничать в выявлении и проверке информации о методах создания универсальных систем ИИ.
- Информировать пользователей об их взаимодействии с системами ИИ.
- Предоставить возможность пользователям по их желанию прекратить взаимодействие с системами ИИ.
- Предотвращать потенциальные угрозы, связанные с использованием технологии ИИ.
Хотя КЭСИИ носит рекомендательный характер, компании, подписавшие кодекс, должны назначить уполномоченных по этике ИИ, которые будут следить за его соблюдением.
В 2024 году НИУ ВШЭ разработал «Декларацию этических принципов создания и использования систем искусственного интеллекта». В соответствии с декларацией, ИИ не должен заменять живое общение, а его использование должно способствовать укреплению межличностных отношений и совместной работы.
Рабочая группа Госдумы по регулированию ИИ
В начале апреля 2025 года в Госдуме сформировалась межфракционная рабочая группа, которая будет заниматься разработкой законов, регулирующих применение ИИ. В состав группы вошли представители всех фракций. Ее задача – обеспечить законодательное регулирование национально ориентированного ИИ. Работа группы продлится до окончания полномочий восьмого созыва, то есть до 2026 года.
По словам депутата Андрея Свинцова (ЛДПР), цель группы – как можно скорее изучить потребности всех заинтересованных сторон, начиная от малого и среднего бизнеса и заканчивая интересами государства. Необходимо определить приоритетные вопросы регулирования, поскольку в российском законодательстве пока нет четких правил, регулирующих применение ИИ.
В ходе заседания рабочей группы по ИИ депутаты будут обсуждать вопросы, связанные с эффективным применением ИИ в различных отраслях. В частности, будут рассматриваться законопроекты, касающиеся национальной безопасности и обороны страны. Депутаты будут работать над инициативами, направленными на предотвращение использования ИИ в преступных целях.
Задачей рабочей группы является создание правовой базы для использования ИИ в стратегическом планировании социально-экономического развития России.
В предварительном документе (есть в распоряжении РБК) содержатся следующие положения:
- Определение ИИ и технологий, связанных с ним.
- Описание систем ИИ.
- Информация о разработчиках, операторах и пользователях таких систем.
- Требования к маркировке систем ИИ, которые должны содержать информацию об использовании искусственного интеллекта при взаимодействии с пользователем.
- Классификация систем ИИ по уровню потенциального риска. Запрет на разработку и эксплуатацию систем с неприемлемым уровнем риска, которые могут представлять угрозу для безопасности личности, общества и государства, а также нарушать основополагающие права и свободы человека и гражданина.
- Ответственность за причинение вреда жизни, здоровью или имуществу для лиц, участвующих в разработке и эксплуатации систем ИИ.
- Если в процессе интеллектуальной деятельности, созданной с использованием ИИ, был существенный вклад человека, то права на результаты такой деятельности будут принадлежать ему. Если вклада не было, то права будут принадлежать оператору системы ИИ.
В правительстве планируют оценить проект, когда он поступит к ним. Зампред комитета по информационной политике, член рабочей группы по ИИ в Госдуме Андрей Свинцов сообщил, что в ближайшие месяцы ожидаются инициативы, регулирующие отдельные вопросы, связанные с ИИ. Однако комплексного законопроекта в этом году он не ожидает.
Как это делают в других странах
В августе 2024 года в Евросоюзе был принят закон AI Act, который устанавливает строгие ограничения на использование алгоритмов в чувствительных областях. Организация экономического сотрудничества и развития (ОЭСР) разработала принципы ответственной разработки ИИ. ЮНЕСКО выпустила рекомендации, направленные на предотвращение дискриминации и нарушений прав человека в этой сфере.
В Бразилии в 2023 году сенаторы подготовили обширный доклад, посвященный ИИ. В нем содержится проект закона о правах пользователей систем ИИ. Законодатели пошли по пути своих европейских коллег и предложили классифицировать системы ИИ в зависимости от потенциальных рисков для общества. Классификации подвергаются системы ИИ, которые могут представлять высокий риск для общества, включают использование ИИ в медицине, системах идентификации по биометрическим данным, кредитном скоринге и других сферах. Пользователи должны знать, что они взаимодействуют с системой ИИ, а также понимать, как именно ИИ принял то или иное решение. Они также могут оспаривать решения ИИ и требовать вмешательства человека. Разработчики систем ИИ несут ответственность за ущерб, причиненный их системами. Чем выше риск, тем выше уровень ответственности разработчиков в случае возникновения проблем.
В Китае применяют трехступенчатый подход к регулированию ИИ: на первом этапе происходит постепенное ослабление ограничений, затем, при обнаружении рисков, контроль ужесточается, а на третьем этапе происходит стабилизация нормативной базы.
Вот некоторые меры контроля, которые применяются в Китае:
- Обязательная регистрация услуг и алгоритмов. Никто не может внедрить новую услугу или алгоритм ИИ без соответствующего разрешения.
- Обязательная маркировка контента, созданного с помощью ИИ.
- Защита интеллектуальной собственности. Модели должны обучаться на данных, которые не нарушают авторские права.
- Обязательная проверка безопасности перед запуском сервисов ИИ.
- Обязательство создавать механизмы для обработки жалоб на свои услуги и контент, что повышает прозрачность работы ИИ.
Основные правовые документы, которые формируют основу для управления ИИ в Китае, включают «Временные меры по управлению услугами генеративного искусственного интеллекта», «Административные положения о рекомендательных алгоритмах в информационных интернет-сервисах» (2021 год) и «Административные положения о глубоком синтезе в информационных интернет-сервисах» (2022 год).