МОСКВА, 14 мая — РАПСИ. Классификация моделей искусственного интеллекта (ИИ) сама по себе не решает задачу риск-ориентированного регулирования, считает первый заместитель председателя Комитета Совета Федерации РФ по конституционному законодательству и государственному строительству Артем Шейкин.
По словам спикера, в центре регулирования должны находиться не только технологии, но и люди. Он отметил, что статья 9 законопроекта об ИИ закрепляет право гражданина быть уведомленным о применении ИИ, однако этого недостаточно.
«На мой взгляд, в федеральном законе должны быть напрямую предусмотрены как минимум три гарантии. Первое — право на обращение к человеку. Второе — право на пересмотр решения, которое было вынесено искусственным интеллектом, человеком, тем лицом, которое может нести ответственность за свое решение. И третье — это специальные требования к применению искусственного интеллекта в государственном управлении и в чувствительных сферах», — уточнил Шейкин в рамках Московского инновационного юридического форума.
Он напомнил, что статья 5 законопроекта предусматривает учет назначения ИИ, степень влияния на юридически значимые решения. Он отметил, что чем выше риск для прав гражданина, тем сильнее должны быть гарантии.
«В первую очередь должны быть урегулированы аспекты использования искусственного интеллекта, которые затрагивают права и свободы граждан, связаны с автономным принятием юридически значимых решений, применением в государственном управлении, использованием в чувствительных сферах, где цена ошибки очень высока, и требуют четкого распределения ответственности между разработчиком, оператором, владельцем сервиса и пользователем», — добавил Шейкин.
Одним из главных замечаний к действующей версии законопроекта спикер назвал провозглашенный риск-ориентированный подход как принцип. По мнению Шейкина, деление моделей на суверенную, национальную и доверенную не раскрывает его.
«Риск-ориентированный подход требует, чтобы мы оценивали конкретные сценарии применения искусственного интеллекта по уровню угрозы правам человека. Классификация моделей, к сожалению, сама по себе эту задачу не решает», — обратил внимание Шейкин.
Он резюмировал, что поддерживает рамочный характер законопроекта и считает необходимой его дальнейшую доработку в части защиты прав граждан при взаимодействии с ИИ.
Агентство РАПСИ является информационным партнером форума.



