Почему законопроект Минцифры об уголовной ответственности за ИИ — несостоятелен

Законодательство

Правительственная комиссия по законопроектной деятельности одобрила инициативу, предусматривающую учёт использования ИИ при квалификации мошенничества и ряда других преступлений.

Мало кто не заметил, как искусственный интеллект развивается в геометрической прогрессии, все чаще становясь незаменимым помощником человека, инструментом автоматизации, двигателем прогресса в той или иной сфере, и еще множество заслуг, которые можно вписать в этот список. Однако куда менее обращают внимание на то, как он стал и средством совершения преступлений. Каких именно?

Фишинговые рассылки, поддельные голосовые сообщения, имитация внешности и манеры речи конкретных людей, автоматизированный подбор уязвимостей — всё это уже не гипотезы и запугивание, а реально существующие практики.

Именно поэтому в России готовятся изменения в уголовное законодательство об ответственности за мошенничество с ИИ, хотя Минюст и представители IT-бизнеса отнеслись критично к такому «плану» (и небезосновательно). А что именно планируется там меняться и корректироваться, и в чем подвох — разбираем в этой статье.

В чем суть поправок?

Попытка законодательно отреагировать на преступления с использованием ИИ возникла не на пустом месте. В последние годы правоохранительная практика всё чаще сталкивается с делами, где цифровые технологии играют ключевую роль, но формально остаются вне уголовно-правовой оценки. Преступление квалифицируется как мошенничество, кража или вымогательство, при том, что способ его совершения качественно отличается от классических схем.

В то же время действующий Уголовный кодекс РФ уже содержит нормы, позволяющие учитывать способ и средства совершения преступления. Тем не менее, искусственного интеллекта как самостоятельного юридически значимого фактора там обнаружено не было.  Использование автоматизированных алгоритмов, нейросетей и машинного обучения зачастую растворялось в формулировках вроде «с использованием информационно-телекоммуникационных сетей» или «с применением технических средств» и т. п.

Предлагаемые же правкомиссией изменения направлены именно на то, чтобы выделить сам искусственный интеллект как отдельный квалифицирующий признак. Обсуждаемый законопроект не собирается вводить новую статью УК или создавать самостоятельный состав преступления. Вместо этого он предполагает внесение корректировок в уже существующие статьи, включая нормы о мошенничестве (ст. 159 УК РФ), краже (ст. 158 УК РФ), вымогательстве (ст. 163 УК РФ) и преступлениях в цифровой сфере. Использование ИИ при совершении таких деяний будет учитываться уже как обстоятельство, влияющее на тяжесть преступления и соответственно меру наказания. В зависимости от состава и последствий преступления санкции могут достигать штрафов до 2 млн рублей и лишения свободы на срок до 15 лет.

По факту законопроект впервые закрепляет определение искусственного интеллекта непосредственно в уголовном законодательстве. Согласно предлагаемой редакции, ИИ — это

«комплекс технологических решений, позволяющий имитировать когнитивные функции человека и получать при выполнении конкретных задач результаты, сопоставимые как минимум с результатами интеллектуальной деятельности человека».

Именно это определение стало одним из ключевых предметов спора. По мнению Минюста, оно сформулировано чрезмерно широко и потенциально охватывает вообще любые инструменты машинного обучения. В таком виде под признаки ИИ может подпасть практически любое современное программное обеспечение, включая браузеры, антивирусы, системы автозаполнения и иные стандартные цифровые инструменты, если они использовались при совершении преступления.

Минюст же уделяет отдельное внимание тому, что признание ИИ квалифицирующим признаком автоматически делает необходимым проведение экспертизы в каждом уголовном деле, где хоть как-то заявлено его использование. Это, по оценке ведомства, приведёт к росту нагрузки на экспертные учреждения, увеличению сроков расследования и подорожанию самого уголовного процесса.

Но никакое из этих замечаний правительственную комиссию не взволновало достаточно, поэтому законопроект она одобрила, и документ может быть внесён в Госдуму в ближайшее время и без существенной переработки концепции.

 

Почему эти поправки создают больше вопросов, чем ответов

С точки зрения уголовного права обсуждаемые изменения нельзя рассматривать как обыкновенное усиление ответственности. Они затрагивают базовые принципы квалификации преступлений и фактически меняют подход к оценке цифровых способов их совершения.

Во-первых, что такое ИИ? Непросто для ответа, но закрепление ИИ как квалифицирующего признака все же неизбежно ставит вопрос о границах этого понятия. В уголовном праве квалифицирующие признаки должны быть сформулированы максимально чётко и однозначно. В противном же случае возникает риск произвольного толкования. В текущей редакции законопроекта ИИ описан функционально, то есть через результат, а не через конкретные технологические характеристики. В итоге получается, что один и тот же инструмент может быть признан ИИ в одном деле и не признан в другом, в зависимости от позиции следствия и экспертов.

Во-вторых, появляется серьёзная проблема конкуренции норм. Минюст отдельно указывает, что новая редакция статьи 163 УК РФ («Вымогательство») может вступить в противоречие со статьёй 272 УК РФ, которая уже предусматривает ответственность за неправомерный доступ к компьютерной информации. Выходит, что в ситуациях, где преступление совершается с использованием цифровых технологий, следственным органам придётся выбирать между несколькими составами, повышая тем самым риск ошибочной квалификации.

В-третьих, как обычно, эти изменения затрагивают не только преступников, но и добросовестных участников рынка. При столь широком определении ИИ практически любая разработка может оказаться в зоне уголовно-правового риска, особенно в условиях отсутствия устоявшейся судебной практики. Больше всего данный критерий, конечно, будет касаться бизнеса в сфере IT.

Наконец, возникает, может и слегка «притянутый за уши», но все же вопрос системности. Закрепление понятия ИИ в Уголовном кодексе без увязки с будущими специализированными законами об искусственном интеллекте может привести к фрагментарному и противоречивому регулированию. Фактически уголовное право здесь начинает опережать общее технологическое законодательство, что для правовой системы вообще нетипично и потенциально проблемно.

Поэтому кажется, что обсуждаемые поправки никак не вяжутся с формулой «новые технологии — новое наказание». И хотя речь идёт о попытке встроить сложное, динамично развивающееся явление в одну из самых консервативных отраслей права, но пока все выглядит чрезмерно импульсивно.

Как это будет «работать» в уголовном деле

Если рассматривать предлагаемые поправки не абстрактно, а через призму конкретной статьи, на которые накладываются поправки, становится очевидно, что использование ИИ как квалифицирующего признака меняет саму структуру доказывания.

Новый предмет доказывания

Возьмем в пример классическое дело о мошенничестве. Здесь следствию достаточно установить факт хищения, способ обмана и причинённый ущерб. Использование цифровых инструментов до сих пор, как правило, рассматривалось как фон.

А если поправки будут приняты, то у нас (как заявляется) появляется дополнительный самостоятельный элемент, который подлежит доказыванию: применение именно искусственного интеллекта. Это означает, что следствие будет обязано:

  • установить конкретный программный продукт или алгоритм;
  • описать его функциональные возможности;
  • доказать, что он подпадает под определение ИИ, закреплённое в УК РФ;
  • показать причинную связь между использованием ИИ и совершением преступления.

Фактически в каждом таком деле должны будут возникать споры о технологиях внутри уголовного процесса.

Роль экспертизы и её пределы

А сама экспертиза в подобных делах станет не вспомогательным, а ключевым доказательством. Вот только уголовно-процессуальное законодательство пока не даёт ответа на вопрос, какой именно эксперт должен определять наличие ИИ и по каким критериям.

Компьютерно-техническая экспертиза традиционно отвечает на вопросы о программном коде, способах доступа и следах вмешательства. Оценка же того, «имитирует ли программа когнитивные функции человека» и сопоставим ли результат её работы с интеллектуальной деятельностью, находится на стыке права и прикладной науки. То есть вывод эксперта будет носить больше оценочный характер, а не основанный на формализованных критериях? Пока неясно.

Но для защиты это, с одной стороны, открывает возможности для оспаривания экспертиз, а с другой, как мы уже говорили — увеличивает сложность и стоимость защиты.

Кто именно несёт повышенную ответственность

Отдельный практический вопрос касается субъекта ответственности. Использование ИИ редко сводится к одному лицу — в реальности это может быть цепочка из разработчиков, интеграторов, пользователей и администраторов системы.

Поправки не уточняют пункт того, на каком этапе использование ИИ становится уголовно значимым. Достаточно ли того, что обвиняемый применил готовый сервис, не понимая принципов его работы? Или квалифицирующий признак возможен только при осознанном использовании ИИ как инструмента преступления?

Не имея чёткого ответа возникает риск смещения фокуса ответственности с умысла на технологию, что противоречит базовым принципам уголовного права.

В итоге у нас есть еще целый подзаголовок, подтверждающий факт, что практическая реализация идеи об уголовной ответственности за мошенничество с использованием ИИ требует значительно более детальной регламентации, чем та, которая предлагается сейчас.

 

Возможен ли «правильный» вариант регулирования и почему его пока не видно

Пока мы здесь критикуем, у вас, вероятно, всплывает вполне логичный вопрос — существует ли вообще более взвешенное решение, позволяющее учитывать риски использования искусственного интеллекта, не создавая при этом правовой неопределённости? Короткий ответ: теоретически — да, практически — пока нет. И причин у этого несколько.

Почему уголовное право здесь — не лучший инструмент

Уголовное законодательство традиционно реагирует на устойчивые, хорошо описываемые общественно опасные явления. Оно плохо приспособлено к регулированию технологий, которые быстро меняются и не имеют единого технического стандарта (пока что). Искусственный интеллект как раз относится к таким феноменам.

Попытка зафиксировать определение ИИ в УК РФ означает «заморозить» технологию в конкретной формулировке. При этом сама технология продолжит развиваться, а правоприменитель будет вынужден работать с устаревшими или чрезмерно широкими конструкциями. Отсюда и ключевая проблема: уголовное право здесь неизбежно начинает отставать либо, наоборот, захватывать лишнее.

Почему квалифицирующий признак — сомнительное решение

Использование ИИ предлагается учитывать как квалифицирующий признак, то есть как обстоятельство, повышающее общественную опасность деяния. Однако с юридической точки зрения, опять же, повышенная опасность должна вытекать не из самого факта применения технологии, а из последствий и характера вреда.

ИИ сам по себе не делает мошенничество более опасным, если он не привёл к иным масштабам ущерба, массовости или особой уязвимости потерпевших. Эти признаки уже существуют в УК и применяются независимо от используемых инструментов. В этом смысле выделение ИИ выглядит скорее попыткой отреагировать на общественный запрос, чем строго юридически выверенным решением.

Если и говорить о более сбалансированном варианте регулирования, то он мог бы строиться не вокруг технологии, а вокруг результата её использования. Например:

  • массовость причинённого вреда;
  • автоматизированный характер преступления;
  • невозможность оперативного выявления источника атаки;
  • использование подмены личности или злоупотребление доверием в цифровой среде.

Такие критерии легче доказываются, лучше укладываются в существующую логику уголовного права и не требуют от суда оценки сложных технических категорий.

Почему такой подход пока не реализован

Причина отсутствия более тонкого решения во многом лежит вне юридической плоскости. Законодатель действует в условиях высокой общественной чувствительности к теме ИИ и давления на скорость принятия решений. В таких условиях проще закрепить понятие технологии напрямую, чем выстраивать сложную систему критериев.

Кроме того, не забываем, что в России до сих пор не сформирована единая правовая рамка регулирования искусственного интеллекта в целом. Уголовное право фактически пытается закрыть пробелы, которые должны быть заполнены на уровне отраслевого и технологического законодательства. Это, конечно, объясняет, но и не оправдывает появление размытых формулировок.

Наш честный вывод

На текущем этапе говорить о «правильной» модели уголовной ответственности за использование ИИ преждевременно. Любая попытка зафиксировать технологию в уголовном законе без чёткой системной базы неизбежно приведёт к спорной и нестабильной практике.

Скорее всего, в ближайшие годы правоприменение будет формироваться не столько вокруг текста закона, сколько вокруг судебных подходов и экспертных заключений.

В целом, по нашему мнению, предложения по изменениям не вписываются в современные реалии, а также не имеют правовой интеллектуальной ценности. Возможно, существующий законопроект направлен на оценку реакции общественности или же все это — лишь процесс реагирования на актуальную информационную повестку. В любом из случаев, на данный момент сложно предположить, что проект Минцифры дойдет до исполнения в исходном варианте.

 

Контакты

+7 (495) 123-34-47 \ +7 (991) 309-98-66

Telegram 

mail@cpk42.com

Оцените статью
Центр Практических Консультаций
Что думаете? Делитесь мнением!

Заказать звонок