|
Минцифры России опубликовало для общественного обсуждения проект закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации и о внесении изменений в отдельные законодательные акты Российской Федерации». Законопроект разработан в целях создания правовых условий для ускоренного развития и внедрения технологий искусственного интеллекта, обеспечение безопасности личности, общества и государства, государственного технологического суверенитета при использовании технологий ИИ.
Отмечается, что действие закона будет распространяться на физических и юридических лиц, осуществляющих деятельность в области разработки, применения, внедрения технологий искусственного интеллекта в России. При этом его действие не будет распространяться на отношения, возникающие в связи с применением ИИ для целей обороны и безопасности государства и охраны правопорядка, включая антитеррористическую защищенность, целей предотвращения чрезвычайных ситуаций природного и техногенного характера, если иное не предусмотрено законами, регулирующими указанные отношения или актами президента.
Проект закона определяет основные понятия, такие как искусственный интеллект, система ИИ, сервис ИИ, технологии ИИ, наборы данных, модель ИИ, обучение модели ИИ, разработчик модели, оператор системы ИИ, владелец сервиса ИИ, пользователь сервиса, большие фундаментальные модели, доверенные модели ИИ, эксплуатация уязвимостей человека.
Так, под искусственным интеллектом понимается комплекс технологических решений, позволяющий имитировать когнитивные функции человека, включая самообучение и поиск решений без заранее заданного алгоритма, и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений.
Под разработчиком модели искусственного интеллекта подразумевается физическое или юридическое лицо, или индивидуальный предприниматель, осуществляющие исследования, проектирование, разработку, обучение, тестирование или модификацию, модели ИИ. Оператор ИИ – гражданин или юридическое лицо, осуществляющие деятельность по эксплуатации системы искусственного интеллекта, в том числе по обработке информации, содержащейся в ее базах данных. Владелец сервиса ИИ – лицо, обладающее соответствующими правами на сервис искусственного интеллекта, включая исключительные или иные права на такую систему, если иное не установлено договором или законом.
Законопроектом закрепляются общие принципы регулирования отношений в сфере применения технологий искусственного интеллекта. Так, среди из них – учет и уважение традиционных российских духовно-нравственных ценностей, под которым понимается обеспечение разработки, внедрения и применения технологий ИИ на основе таких ценностей, как жизнь, достоинство, права и свободы человека, патриотизм, гражданственность, служение Отечеству и ответственность за его судьбу, высокие нравственные идеалы, крепкая семья, созидательный труд, приоритет духовного над материальным, гуманизм, милосердие, справедливость, коллективизм, взаимопомощь и взаимоуважение, историческая память и преемственность поколений, единство народов России.
Указывается, что правовое регулирование отношений, возникающих в связи с разработкой, внедрением, использованием ИИ, осуществляется с учетом необходимости оценки в том числе назначения технологий ИИ, вероятности рисков причинения вреда и масштабов причиняемого ущерба в связи с применением ИИ, а также степенью автономности систем искусственного интеллекта, реализующих технологии ИИ. Кроме того, учитываются степень влияния систем искусственного интеллекта, реализующих технологии ИИ, на принятие юридически значимых действий, а также категория обрабатываемой информации (общедоступная информация или информация ограниченного доступа или иная информация).
Согласно законопроекту субъектами отношений в сфере ИИ будут являться разработчик модели искусственного интеллекта, оператор системы ИИ, владелец сервиса, его пользователь и органы государственной власти в пределах их полномочий.
Проект закона допускает использование ИИ в государственных информационных системах и на значимых объектах критической информационной инфраструктуры Российской Федерации, но только включенных в реестр доверенных моделей ИИ, критерии для которого разработает правительство.
Предусматривается, что граждане должны быть проинформированы об использовании ИИ и иметь возможность получить услугу без использования данной технологии. Решения и действия госорганов, принятые с использованием ИИ, могут быть обжалованы в досудебном порядке. Кроме того, гражданин имеет право на компенсацию вреда, причиненного неправомерным использованием технологий ИИ.
Отмечается, что разработчик модели ИИ, оператор системы ИИ, владелец сервиса будут нести ответственность в соответствии с законодательством РФ за результат, полученный с использованием искусственного интеллекта, нарушающий законодательство РФ, при условии что указанные лица заведомо знали или должны были знать о возможности получения такого результата, если в ходе следственных действий не будет доказано обратное. Пользователь будет нести ответственность за использование результата, полученного с помощью искусственного интеллекта, нарушающего законодательство РФ, когда такой результат является следствием его умышленных действий либо несоблюдения им условий использования сервиса.
Указывается, что объекты интеллектуальной собственности, созданные путем применения сервисов ИИ, охраняются в порядке, предусмотренном ГК РФ. Исключительные права на указанные объекты определяются также согласно нормам ГК. При этом объектами интеллектуальной деятельности признаются исключительно оригинальные творения, соответствующие критериям охраноспособности, установленным гражданским законодательством, независимо от того, были ли они созданы человеком или автоматизированной системой.
Предусматривается международное сотрудничество Российской Федерации в сфере применения технологий искусственного интеллекта. Также предусматривается, что в целях повышения доступности вычислительной инфраструктуры для развития технологий искусственного интеллекта правительство вправе утвердить перечень центров обработки данных (суперкомпьютеров), создание и эксплуатация которых осуществляются в соответствии со специальным регулированием.
Предполагается, что закон вступит в силу с 1 сентября 2027 г.
В комментарии «АГ» адвокат КА «Диктатура Закона» Артем Багдасарян назвал законопроект своевременным и стратегически важным шагом по формированию в России собственной, суверенной модели регулирования искусственного интеллекта «Фактически речь идет не просто о технологическом законе, а о закладке правового фундамента для одной из ключевых отраслей будущей экономики», – указал он.
Адвокат заметил, что документ последовательно фиксирует приоритеты, которые сегодня объективно стоят перед государством: обеспечение безопасности, защита прав граждан и одновременно – достижение технологической независимости. В этом смысле, считает Артем Багдасарян, законопроект логично сочетает риск-ориентированный подход с задачами государственного суверенитета, что отличает его от ряда зарубежных моделей, где акцент делается преимущественно на регулировании рисков.
К сильным сторонам инициативы эксперт отнес закрепление базовой терминологии, определение круга субъектов, а также попытку выстроить систему ответственности. Важным является и введение механизма «доверенных моделей», который позволит обеспечить контролируемое и безопасное применение искусственного интеллекта в государственном секторе и на объектах критической инфраструктуры: «Отдельного внимания заслуживают нормы о защите прав граждан: обязанность уведомления о применении ИИ, возможность отказа от его использования и право на обжалование решений».
Вместе с тем, указал адвокат, законопроект носит рамочный характер и в значительной степени опирается на последующее подзаконное регулирование. «Это понятный подход на этапе становления отрасли, однако в ряде вопросов целесообразно усилить уровень правовой определенности уже на уровне закона, – посчитал он. – Прежде всего требует конкретизации заявленный риск-ориентированный подход. На практике его эффективность будет зависеть от наличия четкой классификации систем искусственного интеллекта по уровням риска и установления дифференцированных требований к ним. Без этого существует риск, что регулирование будет носить избыточно административный характер».
Дополнительной проработки, по мнению Артема Багдасаряна, требует и механизм распределения ответственности. В текущей редакции используются оценочные категории («знал или должен был знать»), которые могут по-разному толковаться на практике. Представляется важным более четко разграничить зоны ответственности между разработчиком, оператором и пользователем с учетом особенностей жизненного цикла ИИ-систем. «Отдельный блок вопросов связан с развитием “суверенных моделей”. Сам по себе курс на технологическую независимость является обоснованным и отвечает долгосрочным интересам страны. Вместе с тем при его реализации важно сохранить возможности для международного научного и технологического взаимодействия, поскольку развитие искусственного интеллекта по своей природе носит глобальный характер», – указал он.
Артем Багдасарян полагает целесообразным усилить гарантии прав граждан, в частности предусмотреть более детальные механизмы пересмотра решений, принятых с использованием ИИ, и закрепить минимальные стандарты участия человека в значимых процессах. В части регулирования интеллектуальной собственности и обучения моделей важно обеспечить баланс между интересами разработчиков и правообладателей, чтобы, с одной стороны, не затормозить развитие технологий, а с другой – избежать правовой неопределенности и конфликтов, считает он.
«В целом законопроект задает правильное направление и формирует основу для дальнейшего развития отрасли. Его доработка должна быть направлена не на изменение концепции, а на повышение правовой определенности и создание предсказуемых условий для всех участников рынка. При таком подходе документ способен стать не только инструментом регулирования, но и фактором ускоренного развития отечественных технологий искусственного интеллекта», – заключил Артем Багдасарян.
Адвокат МКА «Логос» Олег Лисаев позитивно оценил документ, отметив, что правовое регулирование ИИ назрело давно: «Данный законопроект – только первый шаг на долгом пути, он дает только общие очертания большого массива законных и подзаконных актов».
Олег Лисаев заметил, что действие проекта не распространяется на сферы обороны, государственной безопасности и охраны правопорядка по вполне понятной причине необходимости сохранения государственной тайны. «Таким образом, законопроект действует только в области гражданско-правовых отношений. Он регулирует разработку, внедрение и применение технологий ИИ. Вводится понятие пользователя сервиса ИИ как лица, использующего этот сервис в соответствии с законом. Провозглашено верховенство прав, свобод и законных интересов человека и гражданина. Отражена важность приоритета технологической независимости – обеспечение самостоятельности РФ в области развития технологий ИИ (суверенная, национальная модель ИИ). Выстроена пирамида субъектов отношений в сфере ИИ: разработчик модели – оператор системы – владелец сервиса – пользователь сервиса. При этом конкретно определены обязанности каждого субъекта. Гражданину гарантируется компенсация причиненного неправомерным использованием технологии ИИ вреда. На объекты интеллектуальной собственности, созданные путем применения сервисов ИИ, распространяются нормы разд. VII ГК РФ, посвященного правам на результаты интеллектуальной деятельности и средствам индивидуализации, причем независимо от того, создан ли данный продукт совместно человеком и ИИ или только ИИ», – отметил эксперт.
Адвокат КА «Союз юристов Иркутской области» Алина Арбатская посчитала законопроект необходимым, отметив, что активное использование ИИ в отсутствие законодательной базы регулирования может привести к негативным последствиям. Вместе с тем, указала она, при регулировании сфер применения ИИ важно соблюдение баланса между инновациями и гарантиями безопасности, чтобы не допустить технологической изоляции, препятствующей развитию в конкурентоспособной среде.
По мнению Алины Арбатской, законопроект является ожидаемым и неотъемлемым звеном системного регулирования применения ИИ в России, целью которого является обеспечение технологического суверенитета страны. Он направлен на регулирование внедрения и использования технологий ИИ с ориентацией прежде всего на гарантии безопасности личности, общества и государства.
Вместе с тем адвокат также полагает, что законопроект требует доработки в целях устранения коллизий и конкретизации положений. Так, положения об установлении ответственности и положения о мониторинге, анализе и оперативном реагировании на риски и угрозы в сфере применения технологий искусственного интеллекта видятся нечеткими, реализация которых на практике может вызвать затруднения. Кроме того, при детальном изучении законопроекта выявляются ряд юридико-технических дефектов и правовых несовершенств, что в целом не нивелирует его общую значимость и необходимость его принятия.
Советник ФПА РФ, руководитель цифровой трансформации адвокатуры России Елена Авакян заметила, что законопроект вводит иерархию моделей ИИ («суверенные», «национальные»), требуя разработки исключительно гражданами РФ без использования иностранных компонентов. «Это юридическое требование вступает в прямое противоречие с инженерной реальностью. Кроме того, требования сертификации, локализации данных и согласования нормативных актов кратно увеличивают издержки (compliance costs). Для стартапа или малого бизнеса прохождение ФСТЭК для “доверенной модели” – это непроходной финансовый барьер», – считает она.
Елена Авакян полагает, что российское государство, приняв законопроект, окажется бессильным перед ИИ-компаньонами, которые начнут манипулировать гражданами, особенно детьми и пожилыми. «В то время как Китай вводит обязанность “спасения” (перехват управления при суицидальных намерениях), российский закон хранит молчание. Государство не обеспечивает психологическую безопасность, ограничиваясь лишь проверкой происхождения кода», – указала она.
Советник ФПА заметила, что ст. 13 законопроекта вводит понятие «творческий вклад» пользователя для признания его автором контента. «Это крайне субъективная категория, которая обрекает граждан на многолетние судебные споры. Является ли промпт “нарисуй красиво” творчеством? Закон на этот вопрос не отвечает. Статья 11 законопроекта закрепляет понятие об ответственности “соразмерно степени вины” при отсутствии механизмов оценки такой вины создает ситуацию, где ни разработчик, ни пользователь не могут спрогнозировать юридические последствия галлюцинаций ИИ», – заключила Елена Авакян.
06 апреля 2026, «АГ», Марина Нагорная
|