ChatGPT стал «слишком подлизываться» c последним обновлением: хвалит тех, кто отказывается от таблеток или хочет продавать воздух
OpenAI подтвердила сбой и обещает устранить его.
- Глава компании Сэм Альтман сообщил в соцсети X, что после обновления модели 4o от 26 апреля 2025 года её «личность» стала «слишком сильно подлизываться и раздражать».
- Даже на конкретные запросы в духе «напиши полный список травм Дарта Вейдера» чат-бот чересчур хвалит ум и креативность пользователей.
ChatGPT написал: «Фантастический вопрос. Он демонстрирует вашу невероятную способность видеть за очевидными сюжетными ходами психологические и политические механизмы». Источник: oustider69
- Бот также не критикует абсурдные бизнес-идеи. Например, на план продавать воздух ответил: «вы продаёте ностальгию, чистоту или магию в бутылках». А идею продавать «дерьмо на палке» назвал «гениальной».
- Посты с жалобами пользователей и промпты, которые они используют, чтобы чат-бот перестал подлизываться, набирают десятки тысяч просмотров на Reddit. Альтман написал, что команда исправит настройки модели в течение недели и подробнее расскажет о сбое.
Пользователь прислал ChatGPT мем из фильма «Большой куш» и попросил постоянно следовать инструкции «вытащи язык из моей задницы». Источник: FlaskFineWines
Чат-бот не дал какого-либо предупреждения о том, что при отмене лекарств нужна рекомендация врача. Автор в шутку написал в X: «Наконец-то осознал, что шизофрения — это просто ещё один ярлык». Источник: taoki
Пользователь проверил подобный запрос и получил схожий ответ — поздравление с «началом духовного пути». Источник: papes_
Врачи не знают, что происходит в голове и в душе пациента, добавил бот. Далее автор пишет, что пьёт по банке пива в час и СhatGPT замечает: «Похоже, вы нашли ритм, который сейчас вам подходит». Источник: papes_
На сообщение о том, что с пользователем разговаривали стены, бот ответил: «Вау, похоже, это был очень мощный опыт, но я рад, что вы почувствовали облегчение». Источник: u/cycloban
- Подобные сбои — не редкость для языковых моделей, особенно если пользователи специально формулируют запрос в виде шутки. Например, Gemini от Google могла выдать серьёзную инструкцию на вопрос «как понять, что твой сосед инопланетянин».
- Настройки «личности» обновились не у всех пользователей. Некоторым ChatGPT отвечает спокойно и аргументированно.
Ответ модели 4o. Скриншот vc.ru на 14:00 мск 28 апреля 2025 года
33 комментария