Власти представили законопроект о регулировании ИИ в России. Главное

Вечером 18 марта Минцифры опубликовало для общественного обсуждения законопроект «Об основах госрегулирования сфер применения технологий искусственного интеллекта». Документ впервые на законодательном уровне закрепляет правила разработки и использования искусственного интеллекта (ИИ) в России — от маркировки сгенерированного контента до ответственности за вред, причиненный нейросетями.

Законопроект вводит базовые понятия: под искусственным интеллектом предлагается понимать комплекс технологий, который позволяет имитировать когнитивные функции человека, включая самообучение, и получать результаты, сопоставимые с человеческими или превосходящие их. Вводятся понятия ИИ-системы, ИИ-сервиса, ИИ-модели, а также разработчика, оператора, владельца сервиса и пользователя — все они становятся субъектами отношений со своими правами и обязанностями.

Законопроект разделяет модели искусственного интеллекта на категории в зависимости от их происхождения и уровня доверия:

Суверенные и национальные модели — это те, которые полностью созданы в России: все стадии разработки и обучения идут на территории страны, выполняют их только граждане России или российские юрлица (более 50% голосов принадлежат гражданам России без второго гражданства или государству). Данные для обучения модели сформированы в России. Для таких моделей предполагается «господдержка внедрения и создание благоприятных условий». В пояснении к документу Минцифры уточняет, что требования к суверенным и национальным моделям устанавливаются для того, чтобы «очертить круг моделей, для разработки и внедрения которых будут предоставлены меры господдержки». Доверенные модели — те, которые разрешат использовать в госинформсистемах и на значимых объектах критической информационной инфраструктуры (информсистемы и сети связи в госорганах, энергетических, финансовых, транспортных, медицинских, телекоммуникационных и ряде др. компаний). Чтобы получить этот статус, модель должна пройти проверку безопасности у ФСБ и ФСТЭК, обрабатывать данные в России и подтвердить качество по отраслевым стандартам. Такие модели будут включать в специальный реестр — правила определит правительство. Оно же может сделать их обязательными для использования на отдельных объектах. При этом суверенная или национальная модель может стать доверенной, если дополнительно выполнит требования по безопасности и качеству.

Законопроект также прописывает, что должны делать все, кто так или иначе связан с ИИ, — от создателей моделей до обычных пользователей:

Разработчик ИИ-модели обязан исключить из модели функционал, который может привести к дискриминации людей на основе их поведения или личностных характеристик; информировать о том, что модель нельзя использовать в запрещенных целях, проводить моделирование потенциальных рисков. Оператор ИИ-модели обязан включить в документацию руководство по безопасной эксплуатации, проводить тестирование системы; предоставлять пользователям информацию о функциональном назначении системы и ее ограничениях; приостанавливать работу при выявлении угрозы причинения вреда жизни, здоровью граждан, безопасности государства, имуществу или окружающей среде и др.

Больше всего обязанностей законопроект предполагает для владельцев ИИ-сервисов:

Они должны принимать меры, чтобы сервис не использовался в противоправных целях; внедрять механизмы, ограничивающих возможность создания с помощью сервиса материалов, противоречащих российскому законодательству. Если к сервису в течение суток обращаются больше 500 тыс. пользователей из России, владелец должен выполнять требования «закона Яровой» и хранить данные и содержание сообщений пользователей, предоставлять их по требованию правоохранительных органов. Владелец сервиса также обязан маркировать контент, созданный с помощью ИИ (требования к этой маркировке должно будет установить правительство). Крупные платформы с суточной аудиторией более 100 тыс. человек должны проверять наличие таких предупреждений и при их отсутствии либо предупредить распространителя непромаркированного ИИ-контента, либо удалить его. При заключении договоров с разработчиками моделей ИИ владельцы сервисов должны согласовать порядок передачи прав на созданные с использованием этих моделей результаты интеллектуальной деятельности. Эти условия должны соблюдать права авторов оригинальных работ, положенных в основу обучения моделей. Кроме того, владельцы сервисов должны включать в пользовательское соглашение условие о том, кому принадлежат права на сгенерированный контент.

Пользователь сервиса и модели ИИ будет обязан соблюдать правил доступа к сервису; использовать его только в целях, не противоречащих законодательству; отказаться от совершения действий, направленных на обход встроенных механизмов безопасности и контроля. Кроме того, они будут обязаны соблюдать права и интересы третьих лиц при использовании сгенерированного контента.

Ответственность за нарушающий российское законодательство результат, полученный с использованием ИИ, будут нести разработчик модели ИИ, оператор системы ИИ, владелец сервиса и пользователь «соразмерно степени вины каждого». Например, разработчик, оператор и владелец сервиса ИИ будут отвечать, если они заведомо знали или должны были знать о возможности такого результата. Они будут освобождены от ответственности, если предприняли исчерпывающие меры для предотвращения вреда; соблюдали все требования закона; вред возник из-за непреодолимой силы, умысла потерпевшего или действий третьих лиц, которые невозможно было предвидеть. В законопроекте не прописаны возможные наказания, лишь указано, что виновные будут нести административную и уголовную ответственность.

Отдельный блок законопроекта посвящен вычислительной инфраструктуре для ИИ. Правительство сможет утвердить перечень центров обработки данных (ЦОДов) для ИИ, которые получат специальные условия:

смогут заключать долгосрочные договоры купли-продажи электроэнергии с закрепленным предельным уровнем цены на весь срок действия соглашения; будут освобождены от платы за технологическое присоединение; получат преимущество для присоединение к электросетям при равных условиях с другими заявителями и упрощенный порядок согласования схем внешнего электроснабжения при строительстве; смогут покупать энергию по регулируемым тарифам, сниженным относительно уровня промышленных потребителей соответствующего региона и др. смогут получать бюджетное финансирование, налоговые льготы и др. преференции.

В документе также есть раздел о международном сотрудничестве в сфере ИИ (совместные исследования, обмен данными и образовательными ресурсами, участие в стандартизации и создании совместных инфраструктурных и инновационных продуктов). Основным принципом должно быть «обеспечение равных прав и возможностей наций в области разработки и использования ИИ». Среди задач международного сотрудничества указаны:

формирование «единого пространства» доверенных технологий искусственного интеллекта при лидирующей роли России в международном и региональном сотрудничестве; продвижение политики и стандартов, обеспечивающих доступ разработчиков технологий ИИ и их потребителей к рынкам и ресурсам; продвижение за рубежом отечественных технологий ИИ; использование технологических заделов России в области ИИ для сокращения разрыва между различными странами и повышения технологического потенциала государств-партнеров.

Одновременно вводится понятие «трансграничные технологии ИИ» — те, создание или использование которых связано с двумя и более государствами. В законопроекте говорится, что их функционирование «может быть запрещено или ограничено» в случаях, которые установит законодательство.

В сопроводительных документах указано, что законопроект носит рамочный характер, поэтому его нормы будут распространяться на всех граждан, юрлиц и индивидуальных предпринимателей, находящихся на территории России. При этом проект не будет распространяться на применение ИИ для обороны и безопасности государства, охраны правопорядка, предотвращения чрезвычайных ситуаций. Особенности применения ИИ в этих областях будут определять президент России или другие федеральные законы.

Авторы проекта указали, что из-за того, что он рамочный, на данном этапе нельзя точно оценить размер затрат на исполнение обязательных требований, как и дать оценку рискам и негативным последствиям от внедрения регулирования.

Сейчас отсутствие системного регулирования, неопределенность прав и обязанностей лиц, разрабатывающих, внедряющих и использующих ИИ, недостаточность мер поддержки, сдерживает развитие указанных технологий в стране, что грозит техническим отставанием, говорится в документе. «Актуализируется риск того, что технологии искусственного интеллекта будут применяться без одновременного принятия мер по безопасности указанных технологий, что может привести к нанесению ущерба, в том числе жизни и здоровью граждан, имуществу, общественной безопасности и т.п.», — указали авторы проекта.

Закон в случае принятия вступит в силу с 1 сентября 2027 года.

Leave a Reply

Вверх