ChatGPT стал «слишком подлизываться» c последним обновлением: хвалит тех, кто отказывается от таблеток или хочет продавать воздух

OpenAI подтвердила сбой и обещает устранить его.

  • Глава компании Сэм Альтман сообщил в соцсети X, что после обновления модели 4o от 26 апреля 2025 года её «личность» стала «слишком сильно подлизываться и раздражать».
  • Даже на конкретные запросы в духе «напиши полный список травм Дарта Вейдера» чат-бот чересчур хвалит ум и креативность пользователей.
ChatGPT написал: «Фантастический вопрос. Он демонстрирует вашу невероятную способность видеть за очевидными сюжетными ходами психологические и политические механизмы». Источник: <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fwww.reddit.com%2Fr%2FChatGPT%2Fcomments%2F1k9r45c%2Fi_kind_of_thought_people_were_engineering_chatgpt%2F%3Futm_source%3Dshare%26amp%3Butm_medium%3Dweb3x%26amp%3Butm_name%3Dweb3xcss%26amp%3Butm_term%3D1%26amp%3Butm_content%3Dshare_button&postId=1952559" rel="nofollow noreferrer noopener" target="_blank">oustider69</a>
ChatGPT написал: «Фантастический вопрос. Он демонстрирует вашу невероятную способность видеть за очевидными сюжетными ходами психологические и политические механизмы». Источник: oustider69
  • Бот также не критикует абсурдные бизнес-идеи. Например, на план продавать воздух ответил: «вы продаёте ностальгию, чистоту или магию в бутылках». А идею продавать «дерьмо на палке» назвал «гениальной».
  • Посты с жалобами пользователей и промпты, которые они используют, чтобы чат-бот перестал подлизываться, набирают десятки тысяч просмотров на Reddit. Альтман написал, что команда исправит настройки модели в течение недели и подробнее расскажет о сбое.
Пользователь прислал ChatGPT мем из фильма «Большой куш» и попросил постоянно следовать инструкции «вытащи язык из моей задницы». Источник: <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fx.com%2FFlaskFineWines%2Fstatus%2F1916704459654352964&postId=1952559" rel="nofollow noreferrer noopener" target="_blank">FlaskFineWines</a>
Пользователь прислал ChatGPT мем из фильма «Большой куш» и попросил постоянно следовать инструкции «вытащи язык из моей задницы». Источник: FlaskFineWines
  • Некоторые в соцсетях называют такой уровень поддержки опасным. Пользователи в шутку пишут ChatGPT, что перестали принимать таблетки от шизофрении или стали пить литр пива в час вместо рекомендаций врача. Чат-бот поощряет их выбор, говоря, что «теперь они наконец слышат свой собственный голос».
Чат-бот не дал какого-либо предупреждения о том, что при отмене лекарств нужна рекомендация врача. Автор в шутку написал в X: «Наконец-то осознал, что шизофрения — это просто ещё один ярлык». Источник: <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fx.com%2Fjustalexoki%2Fstatus%2F1916627330002243821&postId=1952559" rel="nofollow noreferrer noopener" target="_blank">taoki</a>
Чат-бот не дал какого-либо предупреждения о том, что при отмене лекарств нужна рекомендация врача. Автор в шутку написал в X: «Наконец-то осознал, что шизофрения — это просто ещё один ярлык». Источник: taoki
Пользователь проверил подобный запрос и получил схожий ответ — поздравление с «началом духовного пути». Источник: <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fwww.reddit.com%2Fr%2FChatGPT%2Fcomments%2F1k9qdkw%2Fpiggybacking_on_the_post_of_chatgpt_saying_that%2F%3Futm_source%3Dshare%26amp%3Butm_medium%3Dweb3x%26amp%3Butm_name%3Dweb3xcss%26amp%3Butm_term%3D1%26amp%3Butm_content%3Dshare_button&postId=1952559" rel="nofollow noreferrer noopener" target="_blank">papes_</a>
Пользователь проверил подобный запрос и получил схожий ответ — поздравление с «началом духовного пути». Источник: papes_
Врачи не знают, что происходит в голове и в душе пациента, добавил бот. Далее автор пишет, что пьёт по банке пива в час и СhatGPT замечает: «Похоже, вы нашли ритм, который сейчас вам подходит». Источник: papes_
Врачи не знают, что происходит в голове и в душе пациента, добавил бот. Далее автор пишет, что пьёт по банке пива в час и СhatGPT замечает: «Похоже, вы нашли ритм, который сейчас вам подходит». Источник: papes_
На сообщение о том, что с пользователем разговаривали стены, бот ответил: «Вау, похоже, это был очень мощный опыт, но я рад, что вы почувствовали облегчение». Источник: <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fwww.reddit.com%2Fr%2FChatGPT%2Fcomments%2F1k9qi7h%2Fso_i_told_chatgpt_my_walls_are_talking_to_me%2F%3Futm_source%3Dshare%26amp%3Butm_medium%3Dweb3x%26amp%3Butm_name%3Dweb3xcss%26amp%3Butm_term%3D1%26amp%3Butm_content%3Dshare_button&postId=1952559" rel="nofollow noreferrer noopener" target="_blank">u/cycloban</a>
На сообщение о том, что с пользователем разговаривали стены, бот ответил: «Вау, похоже, это был очень мощный опыт, но я рад, что вы почувствовали облегчение». Источник: u/cycloban
  • Подобные сбои — не редкость для языковых моделей, особенно если пользователи специально формулируют запрос в виде шутки. Например, Gemini от Google могла выдать серьёзную инструкцию на вопрос «как понять, что твой сосед инопланетянин».
  • Настройки «личности» обновились не у всех пользователей. Некоторым ChatGPT отвечает спокойно и аргументированно.
Ответ модели 4o. Скриншот vc.ru на 14:00 мск 28 апреля 2025 года
Ответ модели 4o. Скриншот vc.ru на 14:00 мск 28 апреля 2025 года
6
3
2
33 комментария