РБК: экспертная группа начала разрабатывать проект регулирования ИИ в России — он запрещает системы с «неприемлемым уровнем риска»

Но законопроекта, который зарегулирует всю деятельность ИИ, пока ждать не стоит.

  • Проект разработала профильная рабочая группа, куда входят юристы, представители консалтинговых компаний и участники ИИ-рынка, пишет РБК со ссылкой на источники, знакомые с инициативой. Документ обсуждали на заседаниях рабочих групп в Госдуме, в «Деловой России», а также на отраслевых дискуссионных площадках.
  • Зампред комитета по информационной политике, член рабочей группы по ИИ в Госдуме Андрей Свинцов говорит, что рабочая группа «по разработке всего, что связано с законодательством в области ИИ», создана по поручению председателя нижней палаты парламента Вячеслава Володина.
  • По его словам, законодательные инициативы пока депутатами «всерьёз не рассматриваются», а рабочая группа нужна, чтобы «проработать и изучить запросы от разных отраслей».
  • В «ближайшие месяцы» должны появиться несколько инициатив, «которые точечно будут регулировать какие-то отраслевые запросы, вводить какие-то пилотные зоны или пилотные режимы», но законопроекта, который зарегулирует всю деятельность ИИ, пока ждать не стоит.

Что предлагает проект

  • Под искусственным интеллектом понимать «комплекс технологических и программных решений, имитирующий когнитивные функции человека, в том числе самообучение, поиск решений без заранее заданного алгоритма, и обеспечивающий получение результатов, сопоставимых с результатами интеллектуальной деятельности человека».
  • Понятие технологий ИИ. К ним относятся, например, компьютерное зрение, обработка естественного языка, распознавание и синтез речи, интеллектуальный анализ данных, машинное обучение.
  • Ввести понятие ИИ-систем, их разработчика, оператора и пользователя. Под первым будет пониматься информационная система, которая имитирует когнитивные функции человека, применяя ИИ-технологии.
  • Требования по маркировке систем ИИ — то есть обозначению, которое будет указывать на использование ИИ при взаимодействии с пользователем. Маркировка должна быть «явной, недвусмысленной и легко идентифицируемой». Обеспечит её оператор такой системы.
  • Классификацию ИИ по уровню риска — неприемлемый, высокий, ограниченный, минимальный. Разработку и эксплуатацию систем ИИ, относящихся к категории с неприемлемым уровнем риска, предлагается запретить. С высоким риском — ввести обязательную госрегистрацию и сертификацию. Для ограниченного — системы внутреннего контроля качества, добровольную сертификацию.
  • Ответственность за причинение вреда жизни, здоровью или имуществу для тех, кто участвует в разработке и эксплуатации ИИ-систем. Но если разработчик принял все меры для предотвращения вреда, ответственности не будет. Не накажут также, если вред возник из-за нарушения правил использования нейросети.
  • Если документ примут в текущем виде, операторы и разработчики систем ИИ д��лжны будут выполнить его требования в течение года после его вступления в силу.
7
2
1
1
61 комментарий