СУХУМ, 12 мая – РАПСИ. Использование искусственного интеллекта (ИИ) в судопроизводстве должно быть под контролем, с использованием ограничительных механизмов, о чем свидетельствует опыт Китая, заявила преподаватель базовой кафедры Адвокатского бюро ЕПАМ Елена Авакян.

«Как показывают опросы, проведенные в этом году в России, 36% адвокатов подтвердили, что они ежедневно используют искусственный интеллект в своей деятельности. Более 70% опрошенных судей подтвердили, что они так или иначе используют искусственный интеллект. На самом деле, это большая проблема, потому что использование искусственного интеллекта в судопроизводстве, и мы об этом говорили с самого начала, и я, как эксперт, об этом говорю уже лет пять, не должно быть бесконтрольным. В обязательном порядке должны быть ограничительные механизмы и должна быть создана специальная закрытая система ИИ, которая будет способствовать принятию судебных решений», – сообщила Авакян на круглом столе, посвященном вопросам цифровизации правосудия, в рамках организованной Верховным судом Абхазии конференции.

По словам Авакян, при применении технологий искусственного интеллекта речь идет о трансграничной передаче данных, и судьи загружают материалы дел в большие лингвистические модели без какой-либо предварительной обработки.

«Я верю, что ни один судья не скормил искусственному интеллекту ни одно дело, находящееся в режиме государственной тайны. По крайней мере, верю в этот разум, в наличие его. Но тем не менее, когда мы загружаем большое количество сведений и обучаем иностранную сеть, мы должны понимать, что мы обучаем ее специфике нашего культурного кода, специфике нашего понимания, специфике нашего судопроизводства», – пояснила специалист.

Она обратила внимание на то, что как нейросеть будет обучена в самом начале, зависит ее дальнейшее будущее.

«От того, как мы обучим нейросеть в самом начале, зависит все ее дальнейшее будущее. Есть непреложный закон: переучить нейросеть нельзя, можно только перезапустить. Что чрезвычайно дорого и чрезвычайно долго. Поэтому большие лингвистические модели сегодня и обладают вот этими самыми известными набившими оскомину ошибками, – пояснила Авакян. – Из каждого утюга сегодня рассказывают про галлюцинации искусственного интеллекта. Но не все в должной степени осознают опасность, когда мы говорим о таких галлюцинациях на государственном уровне».

Одно дело, когда в результате допущенной ошибки адвокат сослался на несуществующее дело, и совсем другое, когда судья положил в основу своего решения несуществующую позицию. «Такое решение ложится в основу обучения искусственного интеллекта, и вот мы получаем системную ошибку, вытащить которую будет чрезвычайно сложно. Поэтому первая этическая развилка – это то, кто, как и на каких условиях обучает [ИИ]», – отметила Авакян.

По ее словам, Китай – на сегодняшний день единственная страна, которая решилась в полной мере внедрить искусственный интеллект в судопроизводство. Была создана даже не большая лингвистическая модель, а программа, которая обучалась исключительно на закрытом массиве данных – так называемый narrow AI, и эта система не выводится за пределы эксперимента, потому что она вызвала очень неоднозначную общественную реакцию.

Авакян в своем выступлении обратила внимание и на главную этическую проблему: кто несет ответственность за принятое решение.

Надо отметить, что этические кодексы всего мира отвечают на этот вопрос однозначно: ответственность несет человек. Если искусственный интеллект применил адвокат, ответственность несет адвокат. Любую, в том числе до утраты статуса. Если искусственный интеллект применил судья и в конечном итоге допустил галлюцинацию в тексте, ответственность несет судья», – рассказала Авакян.

По ее словам, большие консалтинговые компании высказывают сомнения в целесообразности использования искусственного интеллекта в ситуации, когда на генерацию материала тратится 15 минут, а потом на его проверку – 40 часов. К тому же если сейчас ИИ заменяет младших юристов, то через 10 лет откуда возьмутся старшие, задается вопросом специалист.

«Если я не могу сегодня научить младшего юриста, ему не на чем учиться, его работу делает искусственный интеллект. А где мы через 10 лет возьмем тех, кто будет принимать решения? Если они сегодня уже привыкли апеллировать к искусственному интеллекту и не хотят напрягать свой. Это огромная, глобальная этическая проблема», – резюмировала Авакян.

Подписаться на канал РАПСИ в Макс >>>