Правотворческие инициативы в сфере искусственного интеллекта, возможное введение отдельных составов преступлений за использование нейросетей и перспективы практических разъяснений от Верховного суда РФ, обсудили участники V Всероссийских Академических слушаний. Эксперты отметили, что системные атаки с применением дипфейков перешли с частных лиц на критическую инфраструктуру и корпорации, а законопроектная работа призвана обеспечить уголовно-правовую защиту от современных киберугроз.
Смещение фокуса
Системные атаки с использованием дипфейков сместили фокус угрозы с частных лиц на критическую инфраструктуру и крупный корпоративный сектор, считает член Совета при президенте РФ по развитию гражданского общества и правам человека (СПЧ), директор АНО «Белый Интернет» Элина Сидоренко.
Риски перешли в практическую плоскость финансовых потерь: только один недавний инцидент с транснациональной корпорацией, где сотрудника обманули с помощью групповых дипфейков в ходе серии видеоконференций, привел к ущербу, превысившему 25 миллионов долларов. Сидоренко квалифицировала этот случай как «тревожный звоночек», свидетельствующий о кардинальном изменении характера киберугроз. 
Ключевым инструментом системного противодействия этим угрозам может стать принятие проекта федерального закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в РФ», опубликованного в марте. В этой связи эксперт призвала консолидировать усилия науки, бизнеса и государства для выработки системных решений в сфере уголовно-правовой защиты от использования ИИ в преступных целях.
Также Сидоренко негативно оценила попытки западных экспертов перевернуть виктимологическую практику, предлагая причислять к жертвам кибермошенничества не только обманутых граждан, но и самих операторов колл-центров. По её словам, это позволяет отстраниться от защиты по-настоящему слабой стороны.
Современное правосудие
При этом искусственный интеллект может помочь судьям в подготовке к заседаниям: пробные модели сейчас тестируются и однажды смогут использоваться на практике, отмечает ректор Российского государственного университета правосудия им. В.М. Лебедева, доктор юридических наук Ольга Тисен.
По словам ректора, в университете начался эксперимент по обучению моделей использования ИИ в судебных заседаниях. Предполагается, что после обучения в целях недопущения ошибок эта система будет использоваться всеми судами на территории РФ. Тисен также обратила внимание, что в настоящее время судьи становятся более современными, а правосудие — человекоцентричным.
Спикер отметила, что пробелы в правовом регулировании новых технологий, цифровых валют и финансовых активов, виртуальных предметов и иных объектов цифрового права на практике не мешают привлекать к уголовной ответственности. Верховный суд РФ неоднократно указывал в различных решениях, что правоприменение не успевает за реальной ситуацией, в связи с чем судам разъяснено, что одним из важнейших назначений уголовного судопроизводства является защита потерпевших от преступлений, добавила Тисен.
Необходимость следствия
При расследовании преступлений с использованием дипфейков правоохранителям нужны конкретные цифровые доказательства, а для их установления необходим четко выстроенный программный комплекс, считает заместитель начальника Следственного департамента МВД России Данил Филиппов.
По словам следователя, доказать факт применения поддельного видео или фото крайне сложно, и в большинстве случаев правоохранители ориентируются на показания жертв мошенников, однако этого недостаточно. Переход к аппаратной фиксации и поиску цифровых следов станет наиболее успешной перспективой при расследовании таких дел: новые технологии позволят в реальном времени анализировать миллионы изображений, видео и аудиозаписей, определяя характерные для дипфейков искажения, отметил Филиппов.
Представитель МВД также выделил три подхода к квалификации преступлений с использованием ИИ: «экстенсивный», при котором новые технологии пытаются вписать в уже действующие нормы УК, либо введение отдельной статьи, предусматривающей ответственность за создание и применение дипфейков в преступных целях. Последний подход Филиппов назвал более эффективным в правоприменительной практике, добавив, что в МВД уже ведется работа по внедрению системных мер по борьбе с дипфейками.
Ожидание Пленума
Переходный период законопроекта об искусственном интеллекте и последующие разъяснения Верховного суда РФ позволят правильно квалифицировать преступления с применением технологий, отметила адвокат, доцент кафедры интеграционного права и прав человека МГИМО Екатерина Торкунова.
По ее словам, переходный период следует использовать для апробации в экспериментальном правовом режиме, а также для разработки постановления Пленума Верховного суда, который разъяснит судам особенности квалификации преступлений, совершенных с использованием ИИ, и стандарты оценки добросовестности разработчиков и операторов. Комплексный подход с материальным, административным и уголовным регулированием позволит обеспечить безопасность личности, общества и государства, не ограничивая при этом инновационную активность, уточнила Торкунова.
Адвокат также предложила, чтобы обязательное согласование с уполномоченными органами касалось только доверенных моделей ИИ, объектов критической инфраструктуры и обработки информации ограниченного доступа, тогда как меры государственной поддержки и внедрение технологий в коммерческом секторе не должны требовать такого согласования. Кроме того, Торкунова призвала скорректировать нормы об ответственности разработчиков, сохранив презумпцию невиновности, а также ввести уголовную ответственность за удаление или скрытие предупреждений о применении ИИ в синтезированном контенте, если это используется для преступлений.
Позиция Минцифры
Минцифры РФ предлагает обязать операторов искусственного интеллекта и социальные сети предоставить пользователям возможность самостоятельно маркировать контент, созданный с помощью нейросетей, заявил заместитель министра цифрового развития Александр Шойтов. По его словам, платформы также можно обязать выявлять контент, не соответствующий заявленной маркировке.
Представитель министерства подчеркнул, что ведомство открыто для предложений науки, общества и бизнеса, а основные риски ИИ связаны с целенаправленным использованием технологии преступниками и «случайным» использованием — пользователями.
Банковский помощник
Искусственный интеллект в ближайшие годы станет личным помощником в финансовых вопросах: он поможет грамотно составить жалобы, разобраться в сложных договорах, а также сможет защитить от дипфейков и мошенничества, отметил руководитель службы по защите прав потребителей и обеспечению доступности финансовых услуг Центрального банка России Михаил Мамута.
По словам эксперта, большинство граждан не знают, куда обращаться за правовой помощью, и им необходима помощь в грамотном составлении описания проблемы, которую предстоит решить специалистам. В этой связи ИИ-маршрутизатор поможет правильно сформулировать запрос, адресовать его и довести до логического решения. Отдельно Мамута остановился на пилотном проекте по созданию ИИ-помощника, который переводит сложные многостраничные финансовые договоры на простой язык, указывая пользователю на ключевые условия и риски в документах.
При этом использование искусственного интеллекта в преступлениях может потребовать введения отдельных специальных составов для уголовной ответственности, заявил статс-секретарь, заместитель директора Росфинмониторинга Герман Негляд.
По словам эксперта, перед законодателем стоит выбор: либо корректировать действующие составы, включив использование ИИ и нейросетей в качестве отягчающего обстоятельства, либо вводить отдельные специальные составы, связанные с применением искусственного интеллекта и дипфейков. Кроме того, Негляд задался вопросом о необходимости привлекать к уголовной ответственности должностных лиц и операторов инфраструктуры, если они не внедряют защитные механизмы и игнорируют риски злоупотребления технологиями.
В эту среду в Москве прошли V Всероссийские Академические слушания, посвященные уголовно-правовой защите от дипфейков и противодействию использованию искусственного интеллекта в преступных целях. Эксперты обсудили риски в области внедрения цифровых технологий, их урегулирование, а также распределение ответственности между разработчиками, платформами и пользователями. Мероприятие организовано АНО «Белый Интернет» совместно с МГИМО МИД РФ.



