Экспертная группа, объединившая юристов, консультантов и отраслевых специалистов по искусственному интеллекту, представила проект правового регулирования технологий ИИ в России. По информации издания, документ уже прошёл обсуждение на ключевых площадках.

Инициатива направлена на создание четырёхуровневой классификации систем ИИ по степени риска: от неприемлемого до минимального. Разработка и применение решений, угрожающих безопасности граждан, общества или государства, предлагается полностью запретить.
Стратегия ответственного развития технологий
Для высокорисковых систем в сфере медицины, транспорта и правопорядка предусмотрена обязательная сертификация. Для остальных категорий рекомендован внутренний контроль качества, а добровольная аттестация упростит внедрение ИИ-инноваций.
Безопасность как основа цифрового прогресса
Ранее в Совете Федерации акцентировали важность защиты выборных процессов от внешнего воздействия. Новый законопроект призван укрепить доверие к технологиям, обеспечив баланс между развитием ИИ и защитой прав граждан.
Источник: russian.rt.com






