Google приостановила генерацию изображений людей в Gemini (ранее Bard) из-за расовой предвзятости
Компания принесла извинения в своем блоге за то, что намеренно настроила модель таким образом, чтобы та всегда создавала расовое разнообразие на изображениях.
Основные претензии к Gemini возникли после того, как пользователи заметили, что ИИ-генератор создает изображения, искажающие исторические события. Например, изображая нацистов и отцов-основателей США с разнообразным цветом кожи и полом.
Наша настройка, гарантировавшая, чтобы Gemini показывала разнообразие людей, не учла случаи, для которых явно не должно быть разнообразия.
И во-вторых, модель стала более осторожной, чем мы планировали, и полностью отказывалась отвечать на некоторые безобидные запросы интерпретируя их как «чувствительные».
Папа Римский и девушка с жемчужной серёжкой
С 22 февраля Google приостановила возможность генерировать изображения людей с помощью Gemini. Представитель компании заверил, что они активно работают над улучшением системы генерации изображений, чтобы обеспечить более точные результаты.
Подобные перекосы замечены у Google не в первые. Ранее, в Google Images уже отмечались предвзятости в отображении различных расовых и социальных групп. Например, запрос «черная пара» приводил к отображению исключительно черных пар, в то время как запрос «белая пара» возвращал изображения пар, состоящих из представителей разных рас и гей-пары.
Такие же проблемы проявлялись при запросах изображений «гей-пары» и «гетеросексуальные пары»: изображения гей-пар часто попадали в результаты запроса «гетеросексуальные пары», поднимая вопросы о точности и балансе в репрезентации различных групп.
Аналогичные проблемы с предвзятым отображением различных расовых и социальных групп наблюдаются и в результатах поиска изображений в DuckDuckGo.