Адвокат из Нью-Йорка использовал ChatGPT для подготовки документов по делу — теперь его самого ждёт суд

Специалист с тридцатью годами юридической практики за плечами «не знал, что данные чат-бота могут быть недостоверными».

Источник: <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fwww.nytimes.com%2F2023%2F05%2F27%2Fnyregion%2Favianca-airline-lawsuit-chatgpt.html%3Fsmid%3Dtw-nytimes%26amp%3Bsmtyp%3Dcur&postId=708925" rel="nofollow noreferrer noopener" target="_blank">NYT</a>
104104

Это конкретная проблема ChatGPT. Сервис генерирует ссылки на научные статьи, даёт для них ссылки DOI, авторов, абстракции и ничего из этого не существует в природе. А если таки существует, то по указанным ссылкам обнаруживаются совсем другие статьи.

Прям генератор ложной информации.

5
Ответить

И как с этой проблемой бороться -вообще пока не ясно. Так как эти галлюцинации зачастую выглядят реально не отличимыми от реальности (

3
Ответить