На просторах все больше набирает оборотов новость из США, где робот SRT-H из Университета Джонса Хопкинса самостоятельно удалил желчный пузырь у свиней, не нуждаясь в подсказках человека. Он прошёл через 17 шагов сложной операции, словно хирург с многолетним стажем. Прорыв восхищает, но что, если робот ошибётся? Кто ответит за последствия? И как это изменит наше отношение к медицине?
Робот SRT-H – продукт искусственного интеллекта, обученного на 17 часах видеозаписей реальных операций, где хирурги выполнили более 16 тысяч движений. Он анализировал эндоскопические снимки, принимал решения и двигал инструментами с точностью, которая вполне может превосходить человеческую. Пока операции проводились на животных, но учёные уже мечтают о применении таких технологий на людях. Это открыло бы двери к медицине будущего, где сложные процедуры могут стать быстрее и доступнее. Осталось разобраться, что еще кроется за этими дверями.
В России медицина – это про доверие к врачу, его опыт и человеческое тепло. Когда-то и анестезия казалась чем-то пугающим, а сегодня без неё не обходится ни одна операция, хотя для некоторых подобные махинации с телом – по сей день что-то пугающее. Роботы-хирурги же – новый рубеж, который может встретить сопротивление. В нашей культуре врач воспринимается не только, как уважаемая профессия, но и человек большого сердца, способный понять боль и страх пациента. Сможет ли робот заменить это? С другой стороны, в отдалённых уголках страны, где хирургов не хватает, такие технологии стали бы спасением, делая сложные операции доступными там, где раньше это было невозможно. Но как общество примет идею, что их жизнь в руках машины?
Законодательство России пока не готово к таким сценариям. Но если врач допускает ошибку, ответственность регулируется несколькими законами:
Основной документ – Федеральный закон № 323-ФЗ «Об основах охраны здоровья граждан в Российской Федерации» (от 21.11.2011).
- Статья 4 этого закона требует, чтобы медицинская помощь была качественной, безопасной и соответствовала стандартам.
- Статья 19 закрепляет право пациента на информированное добровольное согласие: перед операцией вы должны знать, кто и как будет вас оперировать, включая использование робота.
- Статьи 1064–1083 Гражданского кодекса РФ позволяют требовать компенсацию за вред, причинённый здоровью, будь то ошибка в диагнозе или неудачная операция. Размер компенсации определяется судом, включая моральный вред (статья 151 ГК РФ), который может быть значительным, если ошибка приведёт к серьёзным последствиям.
Ответственность также может лечь на клинику, которая использует робота, как на организацию, предоставляющую услугу.
- Статья 1095 Гражданского кодекса РФ позволяет требовать компенсацию от производителя за вред, причинённый некачественным продуктом, независимо от вины. Это значит, что компания, создавшая робота, может быть привлечена к ответственности, если доказано, что сбой связан с конструкцией или программным обеспечением. Например, если нейросеть неправильно интерпретировала данные или робот не справился с неожиданным осложнением, производитель может столкнуться с иском. Но доказать это сложно, так как нужен доступ к данным робота, которые могут быть закрыты как коммерческая тайна.
- В случае серьёзных последствий, таких как тяжкий вред здоровью, возможна уголовная ответственность по статье 238 УК РФ за оказание небезопасных услуг, с наказанием до шести лет лишения свободы.
Но кто ответит за автономного робота, который сам принимает решения? Здесь законодательство пока молчит.
- Статья 403 ГК РФ регулирует ответственность за действия третьих лиц, но неясно, можно ли считать робота «третьим лицом» или просто инструментом. В мире уже обсуждают идею «чёрного ящика» для роботов, как в авиации, чтобы записывать их действия и упрощать расследование ошибок, но в России таких требований пока нет.

И здесь мы подходим к крайне тонкому вопросу – как соотносятся профессиональная ошибка, халатность и умысел в медицине. Как отмечает один из наших адвокатов, кандидат юридических наук, Надежда Озова в своей научной статье «Умышленные медицинские преступления против личности: новеллы законодательства и проблемы совершенствования» (Российский судья. — 2023. — № 12), современные уголовные дела в отношении медиков всё чаще касаются не только неосторожности, но и умышленных действий. В своей статье она подчёркивает, что «ранее умышленное совершение медиком уголовно наказуемого деяния являлось чуть ли не казуистикой, то в настоящее время количество таких преступлений неустанно растет» – и законодатель, скорее всего, будет вынужден на это реагировать системно.
Как например случай в Великобритании показывает, насколько сложно распределить ответственность. В 2015 году в больнице Freeman Hospital в Ньюкасле пациент Стивен Петтитт скончался после роботизированной операции на сердце с использованием системы Da Vinci. Это была первая такая операция в стране, и она закончилась трагедией: робот повредил сердце, что привело к множественной органной недостаточности. Расследование выявило, что хирург не прошёл достаточной подготовки для работы с роботом, а представители производителя, Intuitive Surgical, покинули операционную в середине процедуры. Коронер отметил, что отсутствие стандартов подготовки и контроля стало ключевой проблемой, и указал, что традиционная операция, вероятно, спасла бы пациента. Семья Петтитта получила доступ к этим данным и могла подать иск против больницы за халатность или против производителя за недостатки в обучении и оборудовании. В России подобный случай мог бы опираться на статью 1068 ГК РФ, где клиника отвечает за действия своих сотрудников, и статью 1095 ГК РФ, если дефект робота доказан. Пока таких дел нет, но с развитием технологий они неизбежны. Без чётких норм для автономных систем нельзя сказать, готово ли наше законодательство к эпохе, когда роботы возьмут скальпель.
И хотя разговор сегодня о роботах-хирургах, не стоит забывать о недавно анонсированных прорывах в сфере ИИ-диагностики. В Москве, например, сейчас тестируют систему искусственного интеллекта, которая анализирует КТ и МРТ-снимки при инсультах и помогает определить, нужна ли пациенту операция. В Новосибирске – свои разработки: алгоритмы, предсказывающие риски осложнений после операций на аорте. А компания NtechLab уже готовит нейросети для распознавания опухолей мозга и даже деменции на ранних стадиях.
Интересно, что в контексте развития ИИ-диагностики возникает и другой правовой вопрос — обязан ли врач оказывать помощь, если ему «подсказывает» система, но он с ней не согласен? Как отмечает Надежда Озова в другой статье (Озова Н. А. Уголовно-правовое понятие неоказания помощи больному // Российский судья. — 2022. — № 6), действующая редакция статьи 124 УК РФ («Неоказание помощи больному») требует обязательного наступления вреда, но судебная практика показывает: врачу могут вменить преступление даже при косвенной связи между бездействием и осложнением. В одном из разборов она подчеркивает, что отсутствие причинной связи между действием или бездействием врача и наступившим вредом должно исключать уголовную ответственность — но на практике это, к сожалению, не всегда так
Важно подчеркнуть, что ИИ пока только помогает врачу, а не заменяет его. Но ключевое слово здесь – «пока». Если со временем алгоритмы начнут ставить диагнозы самостоятельно, без участия человека, то вопрос юридической ответственности встанет вновь – и уже не только в операционной. Сейчас решение врача, даже принятое на основе ИИ-подсказки, подпадает под нормы действующего законодательства – вплоть до статьи 1064 ГК РФ (о возмещении вреда), если что-то пошло не так. Но когда «врачом» станет нейросеть, обученная на сотнях тысяч случаев, кто ответит за её ошибку? Производитель? Медучреждение? Или сам пациент, выбравший «высокие технологии»?
Закон пока молчит. И, возможно, не так уж далеко то будущее, в котором в информированном согласии перед КТ нам будут разъяснять, что снимок анализирует не врач, а программа, и именно она – первая инстанция, способная заметить опасность… или не заметить.








