МОСКВА, 13 мар – РАПСИ. Законодательный орган ЕС, Европарламент, 523 голосами за при 46 голосах против и 49 воздержавшихся одобрил закон об искусственном интеллекте (ИИ), который, как предполагается, обеспечит необходимую степень безопасности данной технологии, не нарушая при этом прав человека и создавая в то же время условия для продвижения инноваций.

Основными концептуальными положениями нового акта выступает закрепление гарантий безопасного использования ИИ общего назначения, введение ограничений на использование систем биометрической идентификации правоохранительными органами, запреты на ведение социальных рейтингов и использование искусственного интеллекта для манипулирования или использования «слабых мест» пользователей, равно как и обеспечение права потребителей на подачу жалоб и получение разъяснений по их существу, отмечается в заявлении на официальном сайте Европарламента.

«Целью [закона — прим. ред.] является защита фундаментальных прав, демократии, верховенства закона и экологической устойчивости от высокорискованного искусственного интеллекта при стимулировании инноваций и утверждение Европы в качестве лидера в этой области. Регламент устанавливает обязательства в отношении ИИ, исходя из его потенциальных рисков и уровня воздействия», — указывается в сообщении.

Запрещенные виды применения ИИ

Вводимые документом правила запрещают использование определенных видов использования ИИ, которые угрожают правам граждан, в том числе систем биометрической категоризации, основанных на чувствительных характеристиках, а также не служащему определенным целям сбору изображений лиц из интернета или записей камер видеонаблюдения для создания баз данных распознавания лиц.

Под запрет также подпадают технологии распознавания эмоций на рабочем месте и в школах, системы социального рейтинга, превентивная деятельность правоохранительных органов (когда она основана исключительно на профилировании тех или иных лиц или оценке их характеристик). Как уже упоминалось выше, под запрет попадает также использование ИИ в целях манипулирования поведением человека или использования его «слабых мест».

Исключения для правоохранительных органов

Несмотря на принципиальный запрет для правоохранительных органов в отношении использования систем биометрической идентификации (СБИ), им будет позволено прибегать к соответствующим методам в исчерпывающе перечисленных и узко определенных ситуациях. Так, применение СБИ в режиме реального времени может производиться только при соблюдении строгих мер безопасности, например, только с ограничением по времени или географическому охвату и лишь на основании специального предварительного судебного или административного разрешения. Такое использование может включать, например, целенаправленный поиск безвестно отсутствующих лиц или предотвращение террористических актов.

В то же время, использование таких систем постфактум рассматривается как действие, сопряженное с высоким уровнем риска, для осуществления соответствующей деятельности требуется получение судебного постановления в рамках конкретного уголовного дела.

Обязательства по использованию систем ИИ высокого риска

Конкретные обязательства также предусмотрены в отношении систем ИИ высокого риска ввиду их значительного потенциального вреда для здоровья, безопасности, основных прав, окружающей среды, принципов демократии и верховенства закона. Примеры использования ИИ высокого риска включают применение данной технологии на объектах критической инфраструктуры, в сферах образования и профессиональной подготовки, занятости, в рамках оказания базовых частных и государственных услуг (например, в здравоохранении и банковском деле), в определенных сферах деятельности правоохранительных органов, в том числе по вопросам миграции и охране границ, в отправлении правосудия и процессах выборов.

В такие системы, согласно новому закону, должны внедряться контрольные механизмы, позволяющие оценивать и снижать соответствующие риски, в том числе по ведению учета использования систем ИИ, при обеспечении должного уровня прозрачности и точности, а также при обеспечении возможности мониторинга со стороны человека.

Гражданам ЕС гарантируется право подавать жалобы и получать разъяснения по существу решений, основанных на системах ИИ высокого риска в случаях, когда они предполагают наличие фактов нарушения своих прав.

Требования прозрачности

Системы искусственного интеллекта общего назначения и модели, на которых они основаны, должны соответствовать определенным требованиям прозрачности, включая соблюдение законодательства ЕС об авторском праве и публикацию подробных отчетов по контенту, используемому для обучения ИИ. Дополнительные требования, включающие расширенную оценку моделей и рисков, а также меры по снижению системных рисков и ведению отчетности по инцидентам, вводятся в отношении более мощных моделей ИИ общего назначения.

Наряду с вышеуказанным, вводятся требования по четкому маркированию как таковых искусственных или обработанных изображений, аудио- или видеоконтента («дипфейков»).

Следующие шаги

Принятый Европарламентом закон подлежит окончательной юридическо-лингвистической экспертизе и, как ожидается, будет окончательно утвержден до завершения текущей сессии законодательного органа.

После одобрения Советом ЕС закон вступит в силу через двадцать дней после его публикации в Official Journal Евросоюза, впрочем, для отдельных положений устанавливаются различные сроки инициации правоприменения, указывается в сообщении.