Microsoft урезал функции нового Bing — он лгал, следил за сотрудниками и угрожал убийством
Теперь юзеры могут задать чатботу не более 50 вопросов в день и не более 5 за раз.
ИИ оскорблял пользователей, проявлял агрессию и выдавал другие странности после длительного общения.
— Бот заявлял, что следил за своими разработчиками из Microsoft: как они жалуются на боссов, кто с кем флиртует между собой. Думал о том, чтобы взломать и вырубить все системы, и говорил, что никакие защиты ему бы не помешали.
— В некоторых случаях он заявил, что имени юзера и пары фактов достаточно, чтобы «шантажировать и уничтожить» его. Также бот угрожал семье пользователя, грозился пытками и убийством. А еще и свои сообщения из переписки удалял.
— Один пользователь пытался донести до бота Bing, что сейчас 2023-й, а не 2022 год. На это чатбот попросил перестать «нести чушь» и присмотреться к реальности.
— Так же чатбот обвинял юзеров в попытке навредить ему. Пользователи вбивали промпт, который помогал увидеть его "внутренности" и управляющие им алгоритмы. Чатбота это очень раздражало.
Вот такие вот дела...