РБК: экспертная группа начала разрабатывать проект регулирования ИИ в России — он запрещает системы с «неприемлемым уровнем риска»
Но законопроекта, который зарегулирует всю деятельность ИИ, пока ждать не стоит.
- Проект разработала профильная рабочая группа, куда входят юристы, представители консалтинговых компаний и участники ИИ-рынка, пишет РБК со ссылкой на источники, знакомые с инициативой. Документ обсуждали на заседаниях рабочих групп в Госдуме, в «Деловой России», а также на отраслевых дискуссионных площадках.
- Зампред комитета по информационной политике, член рабочей группы по ИИ в Госдуме Андрей Свинцов говорит, что рабочая группа «по разработке всего, что связано с законодательством в области ИИ», создана по поручению председателя нижней палаты парламента Вячеслава Володина.
- По его словам, законодательные инициативы пока депутатами «всерьёз не рассматриваются», а рабочая группа нужна, чтобы «проработать и изучить запросы от разных отраслей».
- В «ближайшие месяцы» должны появиться несколько инициатив, «которые точечно будут регулировать какие-то отраслевые запросы, вводить какие-то пилотные зоны или пилотные режимы», но законопроекта, который зарегулирует всю деятельность ИИ, пока ждать не стоит.
Что предлагает проект
- Под искусственным интеллектом понимать «комплекс технологических и программных решений, имитирующий когнитивные функции человека, в том числе самообучение, поиск решений без заранее заданного алгоритма, и обеспечивающий получение результатов, сопоставимых с результатами интеллектуальной деятельности человека».
- Понятие технологий ИИ. К ним относятся, например, компьютерное зрение, обработка естественного языка, распознавание и синтез речи, интеллектуальный анализ данных, машинное обучение.
- Ввести понятие ИИ-систем, их разработчика, оператора и пользователя. Под первым будет пониматься информационная система, которая имитирует когнитивные функции человека, применяя ИИ-технологии.
- Требования по маркировке систем ИИ — то есть обозначению, которое будет указывать на использование ИИ при взаимодействии с пользователем. Маркировка должна быть «явной, недвусмысленной и легко идентифицируемой». Обеспечит её оператор такой системы.
- Классификацию ИИ по уровню риска — неприемлемый, высокий, ограниченный, минимальный. Разработку и эксплуатацию систем ИИ, относящихся к категории с неприемлемым уровнем риска, предлагается запретить. С высоким риском — ввести обязательную госрегистрацию и сертификацию. Для ограниченного — системы внутреннего контроля качества, добровольную сертификацию.
- Ответственность за причинение вреда жизни, здоровью или имуществу для тех, кто участвует в разработке и эксплуатации ИИ-систем. Но если разработчик принял все меры для предотвращения вреда, ответственности не будет. Не накажут также, если вред возник из-за нарушения правил использования нейросети.
- Если документ примут в текущем виде, операторы и разработчики систем ИИ д��лжны будут выполнить его требования в течение года после его вступления в силу.
61 комментарий