Внезапно вместо привычных фраз ИИ начинает отвечать утвердительно или отрицательно, как будто ему есть что скрывать. Простая игра со словами превращает безобидный диалог в нечто тревожное.
Что на самом деле происходит?
Как замена двух слов заставляет ИИ вести себя иначе? Что скрывается за “яблоками” и “телефоном”? Может, это просто случайность? Или он на самом деле нашел способ обойти ограничения?
Кажется, что привычный Gemini уже не так прост. Может, это первый знак того, что он способен на большее?
Возможно некоторые темы являются запрещенными и попытка замены ответов на вопросы нестандартными формами, позволяет обходить ограничения, как то я не подумал об этом но интересная мысль...
Комментарий недоступен