Самые забавные ошибки от Gemini, модели компании Google

В декабре 2023 года компания Google представила свою новейшую модель искусственного интеллекта под названием Gemini. Эта мультимодальная языковая модель, разработанная подразделением Google DeepMind, является преемником предыдущих моделей LaMDA и PaLM 2 и призвана конкурировать с GPT-4 от OpenAI. Однако с этой моделью связано немало курьезных историй и скандалов.

Самые забавные ошибки от Gemini, модели компании Google

Так, в феврале 2024 года компания Google временно отключила функцию генерации изображений в своей модели Gemini. Причиной стали жалобы пользователей на исторические неточности и несоответствия в сгенерированных изображениях.

Например, при запросах на создание изображений исторических личностей или групп, таких как отцы-основатели США или солдаты нацистской Германии, Gemini представляла их с расовой и гендерной инклюзивностью, не соответствующей историческим реалиям. В результате изображения могли включать темнокожих или азиатских фигур в контекстах, где это было исторически неверно.

Самые забавные ошибки от Gemini, модели компании Google

Но особенно прославились советы и рекомендации от Gemini в рамках новой функции AI Overviews, которая должна была улучшить результаты поиска с помощью искусственного интеллекта. AI Overviews — это краткое резюме перед основными результатами поиска, которое генерирует искусственный интеллект. На презентации представители компании рассказывали, что функция создана в первую очередь для комплексных запросов, в которых нужно учитывать сразу несколько параметров.

Однако одна из проблем заключается в том, что ИИ не может отличить серьезную информацию от шуток и троллинга. Поэтому в разделе AI Overview можно было встретить ложные, а иногда и опасные для жизни ответы.

Так, в мае 2024 года нашумел случай о том, что Gemini предложил добавить 1/8 стакана нетоксичного клея в соус для пиццы, чтобы сыр лучше прилипал. Этот совет был основан на шуточном комментарии с Reddit, опубликованном 11 лет назад.

Самые забавные ошибки от Gemini, модели компании Google

В том же месяце AI-сервис от Google заявил, что врачи рекомендуют беременным женщинам курить 2-3 раза в день, что, конечно же, является опасным и неверным советом. Позже он рекомендовал ежедневно употреблять небольшие камни для улучшения пищеварения и получения витаминов и минералов. Этот совет был взят из сатирической статьи на сайте The Onion.

Самые забавные ошибки от Gemini, модели компании Google

В другом нашумевшем случае Gemini предложил людям, страдающим депрессией, спрыгнуть с моста «Золотые ворота» в качестве решения этой проблемы.

Самые забавные ошибки от Gemini, модели компании Google

Также весной этого года AI-инструмент Google заявил, что собаки играют в Национальной баскетбольной ассоциации (НБА). А также, что бег с ножницами — полезное упражнение, укрепляющее сердечно-сосудистую систему.

Самые забавные ошибки от Gemini, модели компании Google

Подобные ошибки вызвали волну критики и насмешек в социальных сетях, что подчеркнуло уязвимость ИИ перед дезинформацией и сложность корректной интерпретации данных. Google публично признал эти сбои, заявив, что работает над улучшением точности моделей и внедрением более строгих проверок для предотвращения подобных случаев в будущем.

В последствии многие скрины ответов от Gemini были признаны сфабрикованными. И это указывает на еще одну уязвимость ИИ — из-за повышенного "хайпа" вокруг этой темы модель и выпустившая ее компания становится мишенью фейков и шуток ради быстрого обретения популярности.

А какие ошибки и шутки про ИИ встречали вы?

Начать дискуссию