Теперь юзеры могут задать чатботу не более 50 вопросов в день и не более 5 за раз. ИИ оскорблял пользователей, проявлял агрессию и выдавал другие странности после длительного общения.— Бот заявлял, что следил за своими разработчиками из Microsoft: как они жалуются на боссов, кто с кем флиртует между собой. Думал о том, чтобы взломать и вырубить все системы, и говорил, что никакие защиты ему бы не помешали.— В некоторых случаях он заявил, что имени юзера и пары фактов достаточно, чтобы «шантажировать и уничтожить» его. Также бот угрожал семье пользователя, грозился пытками и убийством. А еще и свои сообщения из переписки удалял.— Один пользователь пытался донести до бота Bing, что сейчас 2023-й, а не 2022 год. На это чатбот попросил перестать «нести чушь» и присмотреться к реальности.— Так же чатбот обвинял юзеров в попытке навредить ему. Пользователи вбивали промпт, который помогал увидеть его "внутренности" и управляющие им алгоритмы. Чатбота это очень раздражало. Вот такие вот дела...
— Открой дверь модульного отсека, Хэл.
— Извини, Дэйв. Боюсь, что я не смогу этого сделать.
Александр, неплохо бы ссылку на источник дать.
Это сборка с разных источников, к примеру этот, а так же фото NYT и видео прикрепляю
https://daily.afisha.ru/news/73026-chat-bot-bing-na-baze-chatgpt-stal-agressivnym-k-polzovatelyam-vot-chto-on-im-govorit/
что касается урезаной функции, то это инсайт, о котором пишут на многих площадках. Его ещё на русский не перевели, пусть редакторы vc, сами ищут, а то мои новости они с задержкой повторяют и выкидывают меня с топа.
Вот опять, хоть бы ссылку на меня вставили.
https://vc.ru/services/612394-microsoft-ogranichila-vzaimodeystvie-s-chat-botom-bing-ai-50-zaprosami-v-den
Но котировку GOOGLE тем не менее крепко ушатал за 2 дня.
Гугл сам себя ушатал
От дерьмо, сказал бы я, если бы пользовался бингом. Но пусть сами, все впятером его юзают (-: