В 2023 году пассажир одной колумбийской авиалинии обратился к адвокату, чтобы получить компенсацию за травму, полученную на борту. Доказывая в суде наличие прецедента, адвокат потерпевшего сослался на шесть судебных решений по подобным делам. Проблема в том, что ни одного из этих решений не существовало в действительности: адвокат получил их от ChatGPT, думая (по его собственным словам), что это поисковая система. Проверить подлинность документов не догадался, в связи с чем понес серьезный репутационный ущерб.
В 2017 году Facebook* пришлось отключить свою мультиагентную систему, потому что вместо общения с людьми на английском языке они решили общаться между собой на своем собственном, который людям непонятен, в связи с чем их работу стало невозможно контролировать. Ограничений на использование только английского языка у агентов не было – опять же, создателям такое просто в голову не пришло.
В 2023-2024 году власти Нью-Йорка выпустили чат-бота, который должен был помогать малому бизнесу разобраться в бюрократических тонкостях. Бот сам в них не разобрался и заявил, в числе прочего, что гостям можно подавать сыр, покусанный крысами, если предупредить их (гостей) о произошедшем заранее. Несмотря на шквал негодования от пользователей, бот не отключили, только обвешали предупреждениями о том, что «иногда он может давать некорректный ответ». Тут уже безответственность в квадрате.
На гитхабе есть обновляемый список инцидентов с участием ИИ, которые варьируются от забавных до жутких. Если нервы у вас крепкие, заходите почитать (только не на ночь).
Смешные ситуации, не знал о таком)))
И такое бывает..
В. Пелевин сформулировал этот принцип - Он кстати не плохо прошелся по ИИ в своей книге СНАФ, при чем до того как нейронки вообще стали мейнстримом, такое чувство что он прям предвидел...