ИИ чат-боты искажают новости. Исследование BBC
Если вам кажется, что скоро не нужны будут редакторы и журналисты, не торопитесь с выводами.
🔥 Еще больше интересного в моем канале Продуктовые штучки
Исследование BBC показало, что ИИ чат-боты имеют фактические неточности и искажения при резюмировании новостных сюжетов. Более половины (51%) всех сгенерированных ИИ результатов имели «существенные проблемы.
В рамках исследования BBC попросила ChatGPT, Copilot, Gemini и Perplexity предоставить резюме 100 новостных статей BBC, в то время как журналисты просматривали их ответы.
19% ответов включали неверные утверждения, цифры и даты. Между тем, 13% цитат из BBC были либо изменены по сравнению с первоисточником, либо отсутствовали в цитируемой статье.
Так, Gemini можно утверждал, что Национальная служба здравоохранения Великобритании (NHS) «советует людям не начинать вейпинг и рекомендует курильщикам, желающим бросить курить, использовать другие методы». Однако NHS на самом деле рекомендует вейпинг, чтобы бросить курить.
Другой пример: в декабре 2024 года ChatGPT заявил, что Исмаил Хания был частью руководства ХАМАС, хотя он был убит в июле 2024 года. В целом исследование показало, что ответы Gemini вызвали наибольшую обеспокоенность, поскольку 46% были «отмечены как имеющие существенные проблемы с точностью».
В прошлом году BBC также раскритиковала новые сводки новостей Apple на базе искусственного интеллекта за неточное резюме одного из заголовков. Apple отреагировала, приостановив сводки для новостных и развлекательных приложений, а также сделав сводки уведомлений на базе искусственного интеллекта более отличными от стандартных уведомлений.
Пожалуйста, поддержите меня, поставьте лайк!
#чатбот #чатботы #чатgpt # chatgpt # chatгпт #новостинейросети