OpenAI недавно обновила политику использования ChatGPT, запретив предоставление персонализированных советов в сферах права, медицины и финансов. Эти изменения вступили в силу 29 октября 2025 года и направлены на снижение рисков, связанных с неверной информацией. В юридической области модель теперь может только объяснять общие принципы законов, структуру судов и типовые документы, но не составлять иски, жалобы или оценивать перспективы дел. Аналогичные ограничения применяются к медицине и финансам, где ИИ фокусируется на базовых понятиях с обязательным предупреждением о необходимости консультации со специалистами.
Так, ChatGPT переходит от универсального консультанта к образовательному инструменту, а для юристов такие изменения означают необходимость осторожного подхода к интеграции ИИ в практику, иначе…
Причины изменений в политике OpenAI
Обновление политики OpenAI вызвано ростом судебных исков и инцидентов, где пользователи получали вредные или неверные рекомендации от ChatGPT. Компания столкнулась с претензиями, связанными с советами в чувствительных областях, что привело к необходимости минимизировать юридическую ответственность. В частности, политика теперь прямо запрещает предоставление персонализированного совета, требующего лицензии, такого как юридическая или медицинская помощь, без участия квалифицированного специалиста. Насчет ИИ и медицины мы, кстати, говорили в другой нашей статье, вот только неизвестно, дождемся ли мы теперь роботизированных врачей?
Также теперь запрещена автоматизация решений в высокорискованных секторах, включая право, без человеческого контроля. Эти правила отражены в универсальной политике использования OpenAI, которая консолидирует требования ко всем продуктам компании. Пользователи обязаны соблюдать свои профессиональные этические нормы, а OpenAI оставляет за собой право блокировать доступ за нарушения.
Меры помогают OpenAI позиционировать ИИ именно как вспомогательный инструмент, а не замену экспертам (как часто теперь любят думать). Например, в юридической сфере это особенно актуально как минимум из-за случаев, когда ИИ генерировал вымышленные данные, приводя к не самым приятным последствиям.
Примеры рисков в юридической практике
Использование ИИ без тщательной проверки уже привело к нескольким громким инцидентам. В США в 2023 году двое нью-йоркских адвокатов были оштрафованы на 5000 долларов каждый за подачу брифа с шестью вымышленными цитатами, сгенерированными ChatGPT. Суд отметил, что юристы не удосужились проверить источники, что нарушило их профессиональные обязанности.
Аналогичный случай произошел в Массачусетсе в 2024 году, где адвокат получил санкции за использование ИИ-генерированных фиктивных дел в судебных документах. В Калифорнии в 2025 году апелляционный суд выписал штраф в 10 000 долларов за 21 (!) ложную цитату в апелляционной жалобе, подчеркнув необходимость дополнительных регуляций ИИ в праве.
В Австралии юрист из штата Виктория потерял право на практику после предоставления суду списка несуществующих дел, созданных ИИ. В России, в Краснодарском крае, адвокаты обжаловали приговор, подозревая использование нейросети судьей для его подготовки из-за необычной стилистики. Хотя апелляция оставила решение в силе, это все же подняло вопросы о регламентации ИИ в судопроизводстве.
Эти примеры иллюстрируют проблему «галлюцинаций» ИИ, когда системы выдают ложные факты, подрывая доверие к юридическому процессу. Статистика показывает, что 78 процентов юридических фирм избегают ИИ из-за рисков приватности и безопасности, хотя его применение могло бы сэкономить до 20 миллиардов долларов ежегодно в США за счет оптимизации рутинных задач.
Регуляторный контекст и связанные нормы
Хотя прямых законов, запрещающих ИИ давать юридические советы, на федеральном уровне в США нет (по крайней мере пока), этические руководства и регуляции в этой области развиваются. Американская ассоциация адвокатов (ABA) в июле 2024 года выпустила формальное мнение 512, посвященное этическому использованию генеративного ИИ в юридической практике. Оно подчеркивает обязанность юристов понимать технологии, обеспечивать конфиденциальность клиентов и проверять точность AI-генерированного контента. Нарушение может привести к дисциплинарным мерам по правилам профессиональной этики, таким как Model Rules of Professional Conduct.
В ЕС Закон об ИИ (AI Act), вступивший в силу в 2024 году, классифицирует системы, влияющие на юридические решения, как высокорискованные. Он запрещает определенные практики, включая манипулятивные AI-системы, и требует прозрачности, оценки рисков и человеческого надзора. И хотя акт не напрямую запрещает ИИ-советы в праве, он же налагает строгие требования на разработчиков и пользователей, чтобы избежать дискриминации или ошибок в чувствительных областях.
Однако, как ни странно (не странно), в Китае ИИ глубже интегрирован в судебную систему. Система «206» в Шанхае анализирует уголовные дела, помогает в расследованиях и стандартизации приговоров. «Умные суды» обрабатывают миллионы решений, ускоряя процессы и снижая нагрузку, но вызывают вопросы о предвзятости данных и роли человеческого фактора. Оттого китайский подход контрастирует с западными, где акцент на этике и контроле.
В России и других странах аналогичные вопросы решаются через судебную практику, без единого федерального закона, но с растущим вниманием к этическим нормам.
Прогнозы развития
Изменения в политике OpenAI отражают более широкую тенденцию в юриспруденции, где риски ИИ часто перевешивают преимущества без надлежащего надзора. «Галлюцинации» остаются ключевой проблемой, как показывают судебные прецеденты с 2023 года. Сравнивая с финансовой сферой, где регуляции строже, юридическая отрасль нуждается в аналогичных стандартах для обеспечения точности и ответственности.
По предварительным прогнозам, в 2025–2026 годах ожидается рост регуляций в обсуждаемых сферах. Так, в США и ЕС могут ввести законы, требующие маркировки AI-генерированного контента в судах и обязательной верификации. Опросы показывают, что 96 процентов юристов считают недопустимым представление ИИ в суде без контроля, но 83 процента поддерживают его для общих задач. Это предполагает баланс между инновациями и рисками, где ИИ может автоматизировать до 75 процентов рутинных процессов в фирмах, если знать меру.
В долгосрочной перспективе интеграция ИИ в право может повысить эффективность, но все еще требует развития этических рамок. Без этого инциденты с санкциями будут повторяться и дальше подрывать доверие к профессии.
Рекомендации от юристов юристам
Юристам стоит разрабатывать внутренние политики по использованию ИИ, ограничиваясь вспомогательными задачами, такими как анализ документов или поиск прецедентов, с обязательной ручной проверкой. Обучение персонала этике ИИ поможет минимизировать риски, а интеграция инструментов со встроенной верификацией источников станет приоритетом.
Кроме того, не стоит забывать о рисках сливов данных, которые загружаются пользователями в нейросети. Поэтому акты, жалобы, решения и прочее вполне могут быть украдены и использоваться в корыстных или мошеннических схемах. Загружая информацию, которая еще не стала доступна в открытых официальных источниках (например, сайте суда), опасности подвергаются не только статус юристов, но и личная безопасность и приватность граждан или компаний, что также наказуемо уголовно.
Для примера, в нашей компании уже существует внутренняя политика по использованию нейросетей. При приеме персонала данный пункт обсуждается отдельно с каждым. По нашему мнению, использование ИИ в работе недопустимо в большинстве случаев, за исключением, возможно, некоторых, например, поиска какого-то закона, положения и тп. При этом промт никак не должен быть связан с самим делом, максимум – сухая выжимка без подробностей, лиц и описаний. А выданный ИИ результат в обязательном порядке перепроверяется досконально. Таким образом, в безопасности остаются и наши клиенты, и наша профессиональная этика, и наш коллектив.
Также сам результат работы без использования нейросетей, само собой, сейчас дает больше шансов на удачное завершение рассмотрения дела, так как в нашем вопросе критическое мышление – одно из важнейших качеств, которое искусственный интеллект пока явно не освоил в полной мере.
На данный момент описанное – единственный способ использовать новые технологии так, чтобы они не могли навредить, а с имеющимися ситуациями и обсуждениями это актуально вдвойне. Возможно, в будущем (возможно, в ближайшем) изменения по вопросам профессионального использования нейросетей дойдут до нас и начнут реально упрощать жизнь без всяких «но», НО пока довольствуемся имеющимся.
Контакты








