Галлюцинации ИИ в судебных документах приносят реальные проблемы юристам и судам
Morgan & Morgan, юридическая фирма, отправила своим 1 000 юристам срочное сообщение по электронной почте: ИИ может придумывать фейковые судебные дела, а использование фальшивых кейсов в судебных документах приведет к увольнению. Суды по всей стране задавали вопросы к квалификации юристов или применяли меры дисциплинарного характера как минимум в семи случаях за последние два года. Американская юридическая ассоциация в прошлом году уведомила своих 400 000 членов, что этика и последствия ее нарушения распространяются в том числе «на непреднамеренное искажение» документов с помощью ИИ. Профессор юридической школы Университета Колорадо, рассказал, что он советует юристам потратить время на изучение «сильных и слабых сторон этого инструмента». Увеличение количества кейсов с фальшивыми документами в суде от ИИ говорит о «безграмотности в применении ИИ» юристами.
Федеральный судья штата Wyoming пригрозил санкциями двум юристам в Morgan & Morgan, которые включили фиктивные ссылки на несуществующие кейсы в иске против Walmart (WMT.N). Эта ситуация открывает новую эру в применении ИИ в юридических тяжбах. Один из юристов признался на прошлой неделе, что он использовал ИИ инструмент, который «нагаллюционировал» дела. Юрист извинился за свою непреднамеренную ошибку.
Склонность ИИ придумывать фальшивые кейсы в судебных делах привела к тому, что суды по всей стране задавали вопросы к квалификации юристов или применяли меры дисциплинарного характера как минимум в семи случаях за последние два года. Применение ИИ создает высокотехнологическую проблему для сторон иска и самих судов.
Громкость иска Morgan & Morgan против Walmart
Иск против Walmart стало предметом особенного внимания, так как иск ведет известная юридическая фирма, а ответчиком выступает глобальная корпорация. Подобные случаи начали появляться с тех пор, как чат-бот ChatGPT вышел на рынок.
Представитель Morgan & Morgan не ответил на запрос издательства Reuters. Walmart также отказался комментировать. Судья еще не вынес решение о конкретном дисциплинарном взыскании юристов, вовлеченных в использование фейковых документов в суде.
Юридические фирмы закупают ИИ инструменты
Генеративный ИИ помогает сократить время юристов на подготовку документов: поиск информации, создание проектов документов. Многие юридические фирмы заключают контракты с ИИ поставщиками или создают собственные ИИ инструменты.
63% юристов, опрошенных изданием в прошлом году, сообщили, что используют ИИ в работе. 12% подтвердили, что используют ИИ регулярно.
Генеративный ИИ известен своей склонностью придумывать фейки
Юристы, использующие генеративный ИИ, должны быть максимально осторожны. Иногда ИИ создает фальшивые истории, так как модель генерит ответы на основе теории статистики, а не проверяя факты в базах данных, на которых модель обучалась.
Адвокатская этика требует, чтобы юристы проверяли и отстаивали в суде документы, или они будут подвергнуты дисциплинарному взысканию. Американская юридическая ассоциация в прошлом году уведомила своих 400 000 членов, что этика и последствия ее нарушения распространяются в том числе «на непреднамеренное искажение» документов с помощью ИИ.
Юристы обязаны проверять работу ИИ инструментов, иначе они просто некомпетентны
Andrew Perlman, декан юридической школы Suffolk University и сторонник использования ИИ в юридической практике: последствия использования фейковых документов в суде для юристов не поменялись, но сами инструменты подготовки к делу эволюционировали.
Andrew Perlman: «Когда юристы используют ChatGPT или аналогичные генеративные ИИ инструменты для подготовки документов в суд и не проверяют эти документы, то эти юристы просто некомпетентны».
Неграмотность в применении ИИ в судах: штрафы, дисциплинарные меры и подорванное доверие
В июне 2023 года федеральный судья в Манхэттене оштрафовал двух юристов из Нью-Йорка на сумму в $5 000 за ссылку на дела, которые выдумал ИИ инструмент. Эти кейсы использовались в иске о причинении вреда пассажиру против авиакомпании.
В прошлом году другой федеральный судья в Нью-Йорке поднял вопрос о применении санкций против бывшего юриста и посредника Michael Cohen. Последний заявил, что по ошибке передал своему юристу фальшивые кейсы в деле по уклонению от уплаты налогов и финансовым схемам.
Michael Cohen использовал ИИ чат-бот от Гугл Bard. Michael и его юрист не были оштрафованы судьей, но судья назвал этот случай «тревожным».
В ноябре федеральный судья в штате Техас вынес штраф в размере $2 000 адвокату, который ссылался на несуществующие дела и решения в иске о неправомерном увольнении. Адвоката обязали также пройти обучение на курсе о применении ИИ в юридической сфере.
В прошлом месяце федеральный судья в штате Миннесота заявил, что эксперт по дезинформации подорвал доверие к нему, заявив в суде, что по ошибке цитировал фальшивые цитаты, сгенерированные ИИ ботом, в деле о дипфейке с участием Камалы Харис.
Harry Surden, профессор юридической школы Университета Колорадо, рассказал, что он советует юристам потратить время на изучение «сильных и слабых сторон этого инструмента». Увеличение количества таких примеров говорит о «безграмотности в применении ИИ», но сама технология не является проблемой.
Harry Surden: «Юристы и ранее совершали ошибки в своих документах, даже без ИИ. Это не новость».
Ссылка на статью:
https://www.reuters.com/technology/artificial-intelligence/ai-hallucinations-court-papers-spell-trouble-lawyers-2025-02-18/