Уходящий год отметился мощной экспансией искусственного интеллекта во все сферы нашей жизни, в том числе и в правовую среду. Как практикующие юристы используют нейросети в своей работе и чего можно ждать от ИИ в дальнейшем – читайте в обзоре РАПСИ.
Искусственный интеллект – мощный инструмент, который позволяет автоматизировать множество задач, повышает скорость работы. Согласно опросу НАФИ, две трети предпринимателей и сотрудников малого бизнеса экономят время благодаря искусственному интеллекту, а 37% опрошенных убеждены, что ИИ позволяет решать недоступные задачи.
Однако применение нейросетей в правовом поле несет в себе немало рисков: система не всегда учитывает нюансы законодательства и особенности дел, что требует контроля и экспертной оценки самих юристов.
Законодательство РФ, в свою очередь, не в полной мере регулирует использование ИИ в юридической практике, что создает пробелы в правовом поле. Нередко использование искусственного интеллекта приводит к ошибкам, за которые, как правило, вынужден отвечать человек.
Именно поэтому российские участники юридического рынка пока проявляют сдержанность в использовании нейросетей: приоритет отдается (и, скорее всего, будет отдаваться всегда) интеллекту естественному. В то же время на западе вовсе не так аккуратны в использовании новых разработок.
Тенденцию предоставления фейковой информации моделями искусственного интеллекта можно видеть на примере Великобритании. The Guardian сообщает: «В деле о возмещении ущерба против Национального банка Катара истцы сделали 45 ссылок на прецедентное право, 18 из которых оказались вымышленными. Это привело к судебному иску за потраченные впустую издержки, и суд установил, что юридический центр и адвокат были невнимательны».
Ответив на дело, представитель Высшего суда Великобритании Виктория Шарп заявила: «Есть серьезные последствия для отправления правосудия и общественного доверия к системе правосудия, если искусственный интеллект будет неправильно использован. Юристы, злоупотребляющие ИИ, могут столкнуться с санкциями: от публичного выговора до отправления в полицию».
Как российские юристы используют ИИ
Юристы видят в ИИ потенциал для автоматизации документооборота, анализа судебной практики и работы с огромными массивами данных. Эксперты отмечают, что искусственный интеллект закрывает большую часть механической работы: его используют для первичного анализа документов, быстрого извлечения ключевых фактов и структурирования данных.
Валерия Панасенко, управляющий партнер Loio&Fin, рассказывает: «При проверке комплекта договоров в рамках due diligence нейросеть за считанные секунды выделяет условия об ответственности, штрафах, запретах на уступку, в общем, то, что в классическом режиме потребовало бы несколько часов».
Искусственный интеллект также справляется с подготовкой стандартных форм, доверенностей, заявлений и первичных проектов договоров. Это позволяет сосредоточиться на содержательных вопросах, а не на рутине.
Нейросеть может выявить очевидные ошибки в текстах договоров на соответствие законодательству, находить риски и несоответствия: «Мы используем ИИ для анализа типовых соглашений, где система автоматически проверяет стандартные условия о штрафах, сроках и ответственности сторон», – объясняет Наталия Поправко, управляющий партнер «Поправка Бизнеса».
Собственная разработка компаний в сфере ИИ также помогает в работе: это сбор, анализ и структурирование информации о потенциальных клиентах: использование систем бизнес-разведки для выявления и анализа проблем и потребностей потенциальных доверителей в системах, обеспечивающих комплексный анализ и мониторинг российских компаний.
«ИИ ищет связи между компаниями и физическими лицами, финансовой отчетности, данные о банкротствах, судебных разбирательствах для определения проблем потенциального доверителя», – объясняет эксперт.
Искусственный интеллект хорошо справляется с контролем версий, автоматическим поиском скрытых правок, классификацией входящих документов и автоматизацией клиентских коммуникаций. Эти процессы занимают огромное количество времени у юристов, хотя именно их автоматизация повышает эффективность работы.
Юристы не располагают большим количеством времени, это ограниченный ресурс, поэтому главное преимущество искусственного интеллекта – скорость.
«Фактически ИИ работает как ускоритель: помогает быстрее собрать материал и выделить технические моменты, но не заменяет профессионального анализа», – объясняет Наталия Поправко.
Благодаря ИИ юристы реже сталкиваются с ситуациями, когда какая-то важная позиция в практике могла быть упущена просто потому, что искать её вручную слишком долго.
«Кроме того, модели умеют быстро просматривать массив судебных актов и готовить краткие выжимки по позициям судов, что сокращает подготовку обзора практики. Черновики документов можно строить исходя из перечня входных параметров и выбранной юрисдикции, а юрист уже доводит текст до рабочего состояния», – отмечает Андрей Гусев, старший партнер АБ Nordic Star.
Еще один пример – это подготовка сравнительного анализа регулирования в четырёх юрисдикциях по проекту клиента.
«Раньше на такую работу ушло бы два-три дня, теперь – несколько часов. ИИ собрал структуру, выделил расхождения, а также предложил риски, на которые стоило обратить внимание. Юрист уже дорабатывал материал с учётом практики и специфики проекта», – рассказывает управляющий партнер Loio&Fin.
Примеров нахождения сложных рисков нейросетями становится всё больше.
«При анализе контрагентов ИИ выявляет цепочки аффилированности и массовые исключения из «однодневок» из ЕГРЮЛ, которые можно пропустить при ручной выборке, опираясь на открытые данные ФНС и официальные публикации. Модели искусственного интеллекта помогают находить нетривиальные решения судов по смежным составам и видам ответственности, что было бы сложно без машинного просмотра тысячи актов в ГАС «Правосудие» и других государственных системах», – рассказывает старший партнер АБ Nordic Star.
Один из самых показательных выявлений рисков связан с анализом EPC-контракта для крупного промышленного клиента. ИИ обратил внимание на скрытую связь между графиком поставки и штрафным механизмом, причём эти положения были разбросаны по документу и не лежали на поверхности.
В другом проекте ИИ нашёл редкую практику по вопросу задержки сертификации импортного оборудования — решения, которые вряд ли можно быстро обнаружить традиционным поиском. Это позволило значительно усилить позицию.
«Главное — это умение писать четкие запросы, иначе нейросеть выдаст фейковый результат. Этому надо учиться и отрабатывать на практике все нюансы работы с нейросетями, чтобы получить блестящее решение», — объясняет Валерия Панасенко.
Существенно ускорилась и проверка документов — алгоритмы способны выявлять неудачные формулировки, логические несостыковки, пропуски обязательных условий и другие типовые риски.
«Нередко используется и автоматизированная подготовка черновиков документов: проект письма, запроса или договора можно получить за считанные минуты, а затем уже доработать вручную. Дополнительно ИИ облегчает работу с версиями документов, позволяя мгновенно сравнивать тексты и отслеживать внесённые изменения. На практике это даёт ощутимый эффект: первичный анализ договора, который раньше занимал несколько часов, сегодня может выполняться за несколько минут, а подготовка черновика документа сокращается в разы», — отмечает Олег Попов, управляющий партнер Адвокатского бюро «А-ПРО».
Когда ИИ не справляется: где нейросеть не заменит юриста
«Искусственный интеллект не способен адекватно применить человеческий фактор, стать более человечным к проблемам живых людей, поэтому составление исковых заявлений искусственному интеллекту невозможно делегировать, потому что есть разные судьбы и разные характеры людей. Так что нужно четко учитывать, в отношении кого подается исковое: что вообще это за человек? Перед началом работы нужно четко изучить не только бумаги, с которыми предстоит работать, но и потенциального клиента. Психология включается на максимум, робот не может это сделать, так что здесь искусственный интеллект пока что не силен», – считает Тимофей Алёхин, юрист ООО «Иммиграционные решения».
Нейросеть не сможет заменить профессионального юриста в интерпретации сложных проектов с нестандартной стратегией и тактикой реализации. ИИ анализирует прошлое, но не понимает коммерческую логику сторон, их скрытые мотивы, политические или репутационные риски. Он не способен оценить, какое решение приведёт клиента к нужному результату в конкретных обстоятельствах – может предложить, но всех нюансов он не поймет.
Не поймет ИИ и нашего русского менталитета, обычаи делового оборота в России. Это особенно очевидно в сложных переговорах, конфликтных ситуациях или нестандартных проектах, где требуется не только логика, но и опыт, интуиция и понимание человеческого поведения. Юрист остаётся архитектором процесса, а ИИ — лишь инструментом, каким бы продвинутым он ни был.
Эксперты уверены: искусственный интеллект не может принимать стратегические решения, такие как выбор тактики в суде или переговорах, где требуется учет эмоций человека. Модели ИИ не могут распознать и оценить невербальные сигналы и нестандартный компромисс. Для искусственного интеллекта недоступна трактовка оценочных понятий «разумность», «добросовестность», «существенное нарушение» с учётом конкретных обстоятельств и вопросов этики, связанных с защитой прав человека.
Пробелы и риски
Ключевой пробел – отсутствие специальных норм о распределении ответственности между разработчиком, заказчиком и пользователем систем ИИ, а также о статусе ИИ-вывода как доказательства и «юридического действия».
Сейчас в России есть федеральный закон об экспериментальных правовых режимах в сфере цифровых и технологических инноваций, который задаёт рамки «регуляторных песочниц» для цифровых решений, в том числе на базе ИИ, но не устанавливает отдельного режима ответственности за ошибки моделей.
Есть и закон об эксперименте по внедрению технологий ИИ в Москве, который регулирует в том числе особенности обработки персональных данных для ИИ в столичном эксперименте.
Наконец, существует национальная стратегия развития ИИ и блок национальных стандартов, в том числе ГОСТ Р 59277-2020 «Системы искусственного интеллекта. Классификация систем искусственного интеллекта», но они задают принципы и терминологию, а не детальную гражданско-правовую ответственность.
«Вероятно, эти вопросы будут решаться либо через отдельный закон об ИИ, либо через точечные изменения в ГК РФ и процессуальных кодексах», – считает Андрей Гусев.
Другой момент связан с обращением к иностранным нейросетям. Запросы, содержащие персональные данные, фактически становятся трансграничной передачей информации, что после ужесточения законодательства превращается в серьёзный риск. Их регулирование должно двигаться в сторону более чётких стандартов, аналогичных тем, что уже применяются в ЕС и США.
Кроме того, нейросети и искусственный интеллект по умолчанию сохраняют данные юристов, клиентов, должностных лиц и хранят их для своего собственного обучения. Дело в том, что это напрямую противоречит федеральному закону о персональных данных. Поэтому самый главный риск – утечка информации.
Искусственный интеллект – некая база данных, которая выполняет определенные задачи, и как любую базу данных, ее можно взломать и получить персональные данные как юристов, так и людей, которые обращаются к юристам. И здесь включается механизм, когда в сеть попадают удостоверения адвокатов, сотрудников правоохранительных органов, дипломы и свидетельства о рождении. Всё это обнародуется и становится достоянием широкого круга людей.
«К тому же, многие государственные службы хотят оптимизировать свою работу за счет ИИ. Но такие органы напрямую сопряжены с той информацией, которая составляет государственную тайну, из этого возникает очень серьезный конфликт интересов.
С одной стороны, хочется оптимизировать работу ведомства, разгрузить людей, которые несут службу в этих органах. Но, с другой стороны, если информация, которая составляет государственную тайну, будет выгружена в нейросеть и она будет взломана, то это очень серьезные издержки для государства».
Мы стремимся к сокращению рабочего времени, но зачастую это сопряжено с очень серьезными рисками, вплоть до угроз. Здесь нужно найти оптимальный баланс. Перед правоохранителями стоит задача заставить ИИ отвечать тем стандартам, тем требованиям, которые выдвигает государство. Программистов нужно научить нейросети не делиться приватной информацией. Человек, который ответственен за разработку нейросети или искусственного интеллекта, и должен контролировать его работу», – считает юрист ООО «Интеграционные решения».
В использовании ИИ есть риск ошибок, которые выглядят убедительно. Здесь и нужен человек, который напишет правильный промпт – запрос, чтобы исключить уже на первом этапе галлюцинации нейросети; а также специалист, профессионал, в частности юрист, который проверит результаты работы нейросети и выявит ошибки.
Ведь нейросети могут создавать вполне логичные формулировки, которые на деле оказываются недостоверными, а также при неправильном использовании ИИ дает фейковые ссылки, например, на несуществующие судебные акты. Это особенно опасно, когда речь идёт о цитировании судебных актов или нормативных положений.
«Управлять всем этим можно только одним способом: сохранять человеческий контроль, документировать процесс, проверять ссылки, использовать модели ответственно и не передавать им принятие ключевых решений. Для юристов, да и вообще для любых сфер оптимальная стратегия, с моей точки зрения, – доверяй, но проверяй: ИИ делает черновую работу, человек – финальные выводы и решения», – считает Валерия Панасенко.
Сейчас препятствия сосредоточены в трех зонах, резюмирует Олег Попов.
«Во-первых, не определена ответственность за ошибки и вред, причинённые автоматизированными решениями: где проходит граница между зоной ответственности разработчика, оператора и пользователя.
Во-вторых, отсутствуют чёткие требования к прозрачности алгоритмов. В юридической сфере юрист обязан понимать, на основании чего сформированы выводы модели.
В-третьих, остаются пробелы в регулировании обработки персональных данных, особенно при использовании больших языковых моделей. Что нужно: правила проверки качества ИИ-систем, единые стандарты к данным, а также требования к объяснимости алгоритмов в критически важных юридических задачах», – подытоживает эксперт.
Чтобы избежать рисков, нужно закрепить в законодательстве требования к ИИ-системам, включая проверку на безопасность и прозрачность, установить правила использования ИИ в юриспруденции, например, запретить полностью заменять им юриста при принятии ответственных решений, проводить обязательную проверку выводов ИИ человеком.
Так, юридический анализ, выбор правовой позиции и финальное редактирование остаются за человеком – это принципиально, и этот принцип закреплён в Национальной стратегии развития ИИ, где подчёркивается приоритет защиты прав граждан и ответственность пользователей технологий.
Нейросети в юридической сфере: прогнозы
Использование технологий искусственного интеллекта повышает эффективность юристов и качество предоставляемых ими услуг. ИИ значительно ускоряет выполнение рутинных задач, таких как проверка документов, анализ больших объемов данных, подготовка процессуальных документов.
ИИ позволяет юристам сосредоточиться на более нестандартных аспектах работы. Алгоритмы помогают выявить ошибки, предвзятые решения юриста и риски, что снижает вероятность неправильного решения.
Однако, несмотря на очевидные преимущества, есть законодательные пробелы в использовании нейросетей и ИИ. В российском законодательстве нет специальных норм о распределении ответственности между разработчиком, заказчиком и пользователем систем ИИ, что создает угрозу для конфиденциальности информации.
Перед правоохранителями всё ещё стоит задача заставить ИИ отвечать стандартам и требованиям, которые выдвигает государство, а программистов нужно научить нейросети не делиться приватной информацией. Опасность использования нейросетей заключается в галлюцинировании и ссылки на фейковые источники. Именно здесь и нужен человек, который правильно оформить запрос.
На сегодняшний день искусственный интеллект не может полномасштабно заменить работу юриста, последнее слово и решение все равно остается за человеком.
Комментарий эксперта
Член Совета при президенте по развитию гражданского общества и правам человека (СПЧ), глава АНО «Белый интернет», профессор МГИМО Элина Сидоренко:
«Думается, что в ближайшие 2–3 года ИИ будет активно внедряться в юридическую практику как инструмент ускорения рутинных и аналитических процессов — от due diligence и мониторинга судебной практики до выявления скрытых рисков в сложных контрактах, но совершенно очевидно, что он не заменит юриста в задачах, требующих этической оценки, стратегического мышления и понимания человеческого контекста.
Но важно понимать, что эти задачи не будут реализованы без внесения необходимых изменений в действующее законодательство. В первую очередь, важно чётко распределить ответственность за ошибки ИИ и ввести прямой запрет на использование его выводов как самостоятельных доказательств.
Требуется также регулирование трансграничной передачи данных при работе с иностранными моделями и обязательные стандарты безопасности для систем, обрабатывающих конфиденциальную или секретную информацию.
Важно на законодательном уровне проработать и вопрос о национальных языковых моделях, их правовом статусе и мерах поддержки. Тем более на встрече с СПЧ президент поддержал эту инициативу. Но нормативное регулирование не должно ограничиваться законотворчеством.
Профессиональные объединения также должны разработать этические кодексы, включающие обязанность верификации ИИ-результатов и запрет на подачу не проверенных материалов в суд. Обязательное обучение юристов навыкам работы с ИИ — включая составление точных промптов и распознавание галлюцинаций — должно стать частью системы повышения квалификации.
Ключевой моделью остаётся «человек в контуре», при которой ИИ берёт на себя техническую нагрузку, а юрист — интерпретацию, решение и ответственность. Устойчивое развитие цифровой юриспруденции возможно только при условии, что технология служит не автономии, а усилению профессионального суждения — без ущерба для доверия к правосудию и защите прав человека».
Татьяна Голубева



