В ЕС вступил в силу запрет на несколько сценариев использования ИИ — включая идентификацию по биометрии в общественных местах
А ещё — оценку эмоций на работе.
Источник: Shutterstock
- В ЕС запретили использование ИИ-технологий, которые несут «неприемлемый» уровень риска.
В перечень запрещённых методов входят:
- Идентификация людей по биометрии в режиме реального времени в общественных местах. Исключения: поиск пропавших людей или уголовных преступников и предотвращение терактов.
- Классификация граждан на основе анализа социального поведения (как «социальный рейтинг» в Китае) или биометрических данных.
- Прогнозирование, может ли человек совершить преступление в будущем.
- Создание баз данных для распознавания лиц — из изображений в интернете и записей с камер видеонаблюдения.
- Манипуляция и введение человека в заблуждение.
- Распознавание человеческих эмоций на предприятиях и в образовательных учреждениях. Исключения — когда ИИ-технологии используются по медицинским показаниям.
- Эксплуатация уязвимостей человека — инвалидности, возраста или экономического статуса, если это может нанести ему вред.
- В случае нарушения запрета компании заплатят штраф в $36 млн или 7% от годовой выручки за предыдущий финансовый год, «в зависимости от того, какая сумма больше».
- Закон ЕС об искусственном интеллекте вступил в силу 1 августа 2024 года. Он определяет правила использования ИИ-технологий и классифицирует их по уровню риска — от низкого до «неприемлемого». Запрет на последние и вступил в силу 2 февраля 2025 года.
- В сентябре 2024 года более 100 компаний подписали пакт ЕС об искусственном интеллекте, в рамках которого обязались выявить неприемлемые сценарии использования ИИ. Среди них: Amazon, Google и OpenAI. От участия отказались Meta, Apple и Mistral.
- В декабре 2024 года Google представила модель PaliGemma 2, которая, по словам компании, распознаёт эмоции людей на фотографиях. У «Яндекса» есть нейросеть, оценивающая эмоции по голосу.
Как будет по итогу:
В США сделают, в Китае сделают.
А Европа, что хуже чтоЛЕ? Разрешаем, конечно. Самостоятельные вы наши
Комментарий недоступен
Выглядит, как правительство здорового человека 👍
Прогнозирование, может ли человек совершить преступление в будущем.
Помнится этим слоупокам ОАЭ 4 раза за год предупреждение о террористе в Германии слал, а они все тупили
Типо как в Крокусе?
Цифровой концлагерь какой то. Ноль частной жизни, следующим этапом каждому в трусы начнут залезать и мазок брать. Впрочем европейцам такое должно понравится.