Почему этика важна или Как похоронить ИИ продукт ☠

История российской компании, которая не учла вопросы этики в ИИ проекте и потерпела фиаско. Как можно решать такие проблемы ИИ.

Фото с сайта beauty.ai
Фото с сайта beauty.ai

Больше кейсов для бизнеса в моем ТГ 😎:

В 2016 году российский коллектив Youth Laboratories, который занимался изучением человеческой природы и эффективными способами замедления старения и сохранения молодости решили провести первый в мире конкурс красоты в жюри которого искусственный интеллект.

Сайт до сих пор есть Beauty.AI — первый конкурс красоты, в жюри которого исключительно искусственный интеллект. Планировали, что каждый квартал платформа будет открывать заявки для нескольких разработчиков алгоритмов ранжирования красоты с целью обучения и тестирования их систем.

Youth Laboratories заявляли, что решили создать платформу, которая поможет связать самых продвинутых людей — тех, кому интересно мнение ИИ, и тех разработчиков, которые создают интеллектуальные системы для понимания функции красоты с учетом возраста, пола и тысяч других параметров.

Амбициозная команда наладила сотрудничество с ведущими инфраструктурными компаниями, такими как Nvidia и Microsoft, чтобы предоставить лучшие вычислительные мощности для тестирования алгоритмов.

Конкурс был доступен для всех желающих, на сайте нужно было выгрузить фото своего лица. ИИ должен был определять симметрию лица, пол, возраст, этнос и возрастную группу. В конкурсе приняли участие 6000 человек из 100 стран.

Но что-то пошло не так.

Искусственный интеллект выбрал 44 победителя, но почти все они были белыми. Среди победителей только один чернокожий и несколько азиатов.

Фото с сайта wylsa.com
Фото с сайта wylsa.com

Алексей Шевцов, соучредитель коллектива Youth Laboratories заявил, что у расовых предпочтений алгоритма ИИ есть ряд причин. И главная в том, что в выборке фотографий, по которой машина училась определять стандарты красоты, было недостаточно чернокожих людей. Поэтому машина и сделала вывод, что светлый цвет кожи – это признак привлекательности.

Такое начало проекта стало полным фиаско и больше конкурс не проводился. Подобный международный урон репутации очень чувствителен для компаний.
Проблема предвзятости ИИ: как можно её решить.

В "Белой книге этики в сфере искусственного интеллекта", про которую писала у себя в ТГ-канале, рассматривается проблема предвзятости ИИ и можно ли ее решить.

Вопрос книги 07: Проблема предвзятости ИИ: можно ли ее решить?

"Ответ: Проблема предвзятости ИИ обусловлена исключительно используемыми для обучения данными и поэтому требует комплексного подхода, включающего в себя обеспечение разнообразия данных и тестирование моделей — так можно создать справедливые и этичные системы ИИ" (с. "Белая книга этики в сфере искусственного интеллекта")

В книге даны конкретные рекомендации разработчикам, обоснования, дополнительные примеры и исследования по этому вопросу. Например:
"Практика": Специалисты лондонской компании DeepMind предложили в качестве защиты от влияния человеческих предубеждений использовать метод «гипотетическая справедливость» (counterfactual fairness). Чтобы сформулировать справедливое и непредвзятое суждение о гражданине, ИИ формирует гипотетическую ситуацию, в которой данный каждый гражданин обладает противоположными признаками: женщина превращается в мужчину, бедный — в богатого, афроамериканец — в белого. Таким образом, реальный статус не влияет на оценку деяний гражданина. Суждение формируется в гипотетической ситуации. Такое суждение считается свободным от предубеждений, а значит, справедливым."

Подробно этот и другие вопросы этики в ИИ с кейсами можно изучить в книге.
Изучали вопросы этики ИИ? Какой вас больше всего волнует?

Начать дискуссию