Век информационных технологий и инноваций вынуждает право быстро адаптироваться к новым реалиям. Такие направления, как искусственный интеллект, биометрия, генная инженерия и виртуальные миры, создают уникальные правовые новшества – от ответственности за поведение автономных систем до защиты личности и собственности в цифровом пространстве. Правда, на сегодняшний день в России пока нет специального закона об ИИ, и большинство вопросов решается по аналогии с привычными нормами.
Эксперты отмечают, согласно ст. 1228 ГК РФ гражданское законодательство России ограничивает понятие «автора» человеком, поэтому результаты работы нейросетей сами по себе не получают правовой охраны. Таким образом, ИИ рассматривается не как субъект права, а скорее как «технологический инструмент», ответственность за использование которого ложится на людей и организации. В контексте же глобальной информатизации общества (где данные становятся ключевым ресурсом) это поддерживает нарастающий тренд, когда государства и корпорации усиливают контроль над информационными потоками, и что может привести к новым формам регулирования, включая системы оценки поведения граждан, подобные китайской модели социального кредита, где баллы за действия влияют на доступ к правам и услугам.
Рассматривая сферу искусственного интеллекта, ключевым становится вопрос ответственности за вред. В отсутствие специальных норм действуют общие правила, например, согласно ст. 1064–1069 ГК РФ разработчик или производитель техники может нести ответственность по договору (ГК РФ) или за причинение вреда. Кроме того, с развитием ИИ возникают вопросы о том, кто несет ответственность за решения, принятые автономными системами, – возможно, в будущем это потребует определения статуса ИИ как потенциального участника правовых отношений, особенно если нейросети начнут использоваться в судопроизводстве, принятии государственных решений или медицине. На тему последнего у нас даже есть отдельная статья с комментариями одного из наших юристов, с которой вы также можете ознакомиться по ссылке.
В мировой практике уже появляются подробные правила.
Европа
Так, в Евросоюзе в силу вступил Акт об ИИ, вводящий риск-ориентированный подход: системы «недопустимого риска» (например, система оценки, анализирующая социальные данные о человеке или неконтролируемое распознавание лиц) запрещены с 2 февраля 2025 г., а для «высокорисковых» систем (ИИ в медицине, транспорте, образовании, найме и др.) установлены строгие требования (управление рисками, высокое качество и документация данных, мониторинг, прозрачность, человеческий надзор и т.п.), которые поэтапно начнут применяться с 2026 г. (с полным введением – к 2027 г.).
США
В США единого федерального закона об ИИ пока нет, и регуляторы действуют также в рамках действующего права (например, FTC уже применяет антимонопольные и потребительские законы к случаям дискриминации и введения в заблуждение с помощью ИИ). Попытки ввести на федеральном уровне новые нормы (например, предложенный 10-летний мораторий на законы штатов) натолкнулись на острые политические разногласия и были отклонены.
Китай
В это время Китай активно усиливает контроль. Так, с января 2023 г. действуют «Положения о глубокосинтетических сервисах», обязывающие провайдеров маркировать созданный ИИ-контент, а в июле 2025 г. власти ввели новые правила, согласно которым весь онлайн-контент, сгенерированный ИИ (тексты, изображения, аудио, видео и др.), должен иметь видимые и невидимые метки о создании ИИ (вступают в силу с сентября 2025 г.)
Международное сообщество также усиливает акцент на безопасности ИИ. В сентябре 2025 года на Генеральной Ассамблее ООН более 200 экспертов, включая 10 лауреатов Нобелевской премии, призвали мировых лидеров установить к концу 2026 года четкие границы для развития ИИ. Среди предложенных «красных линий» — запрет на использование ИИ для управления ядерным оружием без человеческого контроля, массовой слежки, создания неуправляемых автономных систем и производства опасных технологий. Инициаторы предлагают создать международный орган для мониторинга соблюдения этих ограничений, подчеркивая, что без таких мер ИИ может стать угрозой глобальной безопасности. В случае налия бизнеса – это сигнал о необходимости учитывать не только локальные, но и глобальные стандарты при внедрении ИИ, особенно в чувствительных сферах, таких как безопасность и защита данных.
Помимо законов ЕС, международные организации призывают к более осторожному подходу. В совместном заявлении 2015 г. ведущих академий наук США, Китая и Великобритании было признано безответственным клинически применять наследственное геномное редактирование, пока не решены вопросы безопасности. В 2018 г. ЮНЕСКО призвала ввести мораторий на такие исследования, а ВОЗ выпустила рекомендации по глобальным стандартам надзора за редактированием генома человека. Эти требования пока не имеют обязательной юридической силы в РФ, тем не менее, задают тон научной и общественной дискуссии. На глобальном уровне это связано с вопросами деглобализации, где страны стремятся защитить суверенитет, подчеркивая национальные традиции и ценности в противовес универсальным нормам, что вполне может привести к конфликтам с правами человека.
Однако интересно, что уже сегодня компании готовятся к новым нормам.
Так, в России прорабатываются экспериментальные правила для автономных роботов: одна из инициатив (проект Минпромторга и Яндекса) предложила для робокурьеров на тротуарах установить скоростной лимит в 25 км/ч, обязательную регистрацию (штатный номер, QR-код) и оформление страховых полисов (минимум 500 тыс. руб.) на случай аварий. Очевидно, что такой подход заимствует идеи международных законов (обязательное страхование, распределение рисков) и уже учитывает ответственность операторов и производителей. В будущем логично ожидать и появления специальных норм, которые прямо установят обязанности участникам цикла «человек – машина» и конкретизируют применение уже существующих статей. Например, может потребоваться внесение поправок в УК РФ (для квалификации преступной небрежности при работе ИИ) или КоАП (для наказания за нарушение новых технических требований).
В России такое развитие может опираться на уникальный баланс, когда, сочетая романо-германскую правовую традицию с акцентом на консервативные ценности, как указано в изменениях Конституции 2020 г. и указе Президента 2022 г. о защите традиционных духовно-нравственных ценностей, страна могла бы предложить миру модель, где права человека (от личных до социально-экономических) эволюционируют к новым поколениям, включая информационные права, такие как защита от навязчивой информации и слежки, без отказа от либеральных основ.
Важную роль играют и права личности в цифровом мире.
Современные биометрические технологии создают новые способы идентификации граждан. В России с декабря 2022 г. уже действует Закон № 572-ФЗ, вводящий Единую биометрическую систему (ЕБС) для идентификации и аутентификации по голосу и изображению лица. Закон определяет, что в ЕБС обрабатываются именно «изображение лица» и «голосовая биометрия» (ст. 3), а иные особые данные – геномная информация, государственные тайны и сведения о категориях лиц (например, осужденных, заключенных) – храниться там не будут. Формально граждане вправе давать согласие на передачу своих биометрических данных в ЕБС, а органы власти и банки получат техническую возможность проверять личность «по биометрии» при оказании услуг. Одновременно Конституция гарантирует неприкосновенность частной жизни и тайну личной информации: ст. 24 Конституции прямо запрещает сбор и распространение сведений о частной жизни без согласия человека. Именно поэтому закон 572-ФЗ содержит многочисленные правила защиты данных (шифрование, хранение в ЕСИА и др.), а нарушение требований идентификации наказывается штрафами (ст. 20 Закона 572-ФЗ).
Оттого, в обозримом будущем вероятны поправки, уточняющие статус этой системы (например, детализирующие права субъектов биометрии) и синхронизирующие ее с законом о персональных данных (152-ФЗ) и другими нормативными актами. Такие изменения стали бы еще более актуальными в контексте эволюции прав человека: от первых поколений (личные и политические свободы) к социально-экономическим и, потенциально, к новым – фокусирующимся на информационной защите, где государство должно обеспечивать не только приватность, но и барьеры от манипуляций данными в «экономике внимания и слежения».
Кроме того, одной из наиболее острых тем остаётся авторское право и нейросети.
Генеративные ИИ умеют создавать тексты, изображения, музыку – но кто на них законно претендует? По действующему российскому праву результат работы нейросети прямо не охраняется, так как авторское право принадлежит тому, кто создал произведение собственным творчеством (ст. 1255, 1257 ГК РФ), а пункт 1 ст. 1228 ГК РФ уточняет, что «автором может быть только лицо».
Аналогичная позиция в США: работы, созданные исключительно машиной, не признаются объектом авторского права, если человек не внёс в них существенный творческий вклад. В практических терминах это означает, что при спорах о произведениях, сгенерированных ИИ, суды будут искать «художника за кадром». Так, в 2023 г. Бюро авторского права США впервые попыталось зарегистрировать комикс Midjourney «Zarya», но затем отказало автору, потребовав доказать творческий вклад человека. При этом многие технологические компании и художники поднимают вопрос легальности обучения ИИ на чужих работах без разрешения. Например, известная американская фотобиблиотека Getty подала иски против компании Stability AI, утверждая, что миллионы её фотографий были незаконно использованы при обучении системы Stable Diffusion. Такие судебные процессы показывают, что право на защищённые материалы отрабатывается по общим нормам: если подтверждается несанкционированное копирование или «воспроизведение» защищённого контента, нарушитель может быть привлечён по ст. 1270 ГК РФ («Нарушение исключительных прав»). В то же время нашу практику выстраивают и новые договорные механизмы: юристы отдела IP (подробнее на нашем сайте 777msk.com) рекомендуют компаниям заранее прописывать в лицензионных и подрядных соглашениях вопросы использования ИИ, учета авторов исходных данных и ответственности за последствия генерации контента.
Параллельно развивается область биотехнологий и геномного редактирования. Наше законодательство традиционно ограничивает вмешательства в геном человека.
- В следствие этого существует Федеральный закон «О временном запрете на клонирование человека» (54-ФЗ 2002 г.), вводящий мораторий на клонирование и связанные опыты.
- Гражданский кодекс (ст. 1349) прямо исключает из патентного права методы изменения генетической целостности клеток зародышевой линии человека.
- Закон об охране здоровья (323-ФЗ) вводит понятие «лечение» для медицинских вмешательств и не предусматривает правового режима для «улучшения» человеческих качеств.
На международной арене действует Конвенция по биомедицине Совета Европы (Овьедо, 1997 г.) и декларации ЮНЕСКО, которые запрещают любые инженерные изменения человеческого наследия вне строго разрешённых клинических контекстов. В частности, международные эксперты призывают допускать генный перенос лишь в сложнейших случаях наследственных болезней и только в рамках строгого контроля.
В российской практике примером стало прерывание эксперимента с отредактированными эмбрионами в Кулаковском центре – хотя ученые добились коррекции нежелательных мутаций, суррогатная мать для переноса «редактированных» эмбрионов не была найдена из-за законодательного запрета вживления таких эмбрионов. При этом российские генетики (как Дмитрий Ребриков) добиваются отмены запрета на патентование техник редактирования человеческой ДНК (ч. 4 ст. 1349 ГК РФ), полагая, что это ускорит развитие отрасли. Мы видим, что сейчас законодательство в этой сфере скорее устанавливает границы допустимого, чем открывает пространство – нужны будут и разрешительные нормы (например, лицензии и регламенты на биоинженерные продукты), и этические гарантии (обязательное информированное согласие субъектов, особенно при работе с зародышевой линией).
Наконец, перед нами стоит метавселенная и цифровые двойники
– миры виртуальные и аватары, где человек имеет цифровую копию. Также, как и в предыдущих случаях (иначе не было бы этой статьи), на данный момент российское законодательство не содержит прямых норм про «метавселенную», поэтому практики ориентируются на аналогии.
- Так, криптовалюты и токены (в том числе NFT) рассматриваются как «иное имущество» по ст. 128 ГК РФ, а значит операции с ними правоприменительно считаются имущественными сделками (с возможной ответственностью по ст. 158 УК РФ за хищение или по ст. 159 УК РФ за мошенничество).
- Защита интеллектуальных прав распространяется и на виртуальный контент: авторство дизайна аватаров или виртуальных предметов будет охраняться по общим правилам ИС. При этом личные права не исчезают, так как согласно ст. 152.1 ГК РФ, изображение человека (в том числе его цифровая копия или аватар) нельзя публиковать и использовать без согласия человека, аналогично «говорящих» биометрических данных.
- В отношении информационной безопасности применима 152-ФЗ (персональные данные), УК (ст. 272 «Неправомерный доступ к информсистемам»), КоАП (например, штрафы за незаконный сбор биоданных).
Тем не менее остаются правовые «белые пятна». Например, если в VR кто-то «вредит» другому психологически, закон не предусматривает наказания за виртуальный вред (нет физических побоев). Будущее законодательства, вероятно, расширит понятие цифровой собственности и уточнит процедуры наследования виртуальных активов (аналогично принятым нормам о криптовалютах). Нам предстоит разработать новые правовые конструкции для защиты интересов пользователей: это могут быть профилировка правовой ответственности за действия в виртуальных средах, стандарты прозрачности и безопасности для виртуальных товаров, а также механизмы арбитража в «цифровом пространстве».
Таким образом, будущее права неизбежно будет связано с глубокими изменениями существующей нормативной базы. Законодатели во всём мире стремятся сохранить проверенные принципы ответственности, собственности и защиты личности, при этом адаптируя их к новым технологиям. Россия, опираясь на свой опыт, могла бы внести вклад в глобальный дискурс, развивая юриспруденцию в диалоге с международными коллегами, без искусственного поиска «оригинальности» – как отмечал Клайв Льюис, настоящая новизна рождается из искреннего поиска истины, а не из желания выделиться. Это позволило бы предложить сбалансированную модель, где защита ценностей (духовно-нравственных и культурных) сочетается с правами человека, через открытые общественные дискуссии и оправданные ограничения, не ведущие к преследованиям несогласных.
Наша юридическая команда внимательно следит за развитием этих направлений и готова оказать поддержку клиентам – от составления новых договоров и процедур внутреннего комплаенса до представительства в спорах, связанных с нашим сегодняшним обсуждением «нового закона». Мы убеждены, что комбинирование традиционной юридической методологии с пониманием технологических особенностей позволит эффективно подготовиться к изменениям законодательства.
Чтобы всегда быть в курсе новостей предлагаем вам подписаться на наш телеграм-канал.








