Большой плюс языковых моделей в том, что они могут выдавать ответ на человеческом языке. То есть, чтобы его интерпретировать, не надо уметь читать сложные графики. Кроме того, с ними можно вести диалог, уточняя и расширяя объяснения, чтобы лучше понять логику полученного результата.
Однако стоит учитывать, что, во-первых, большие языковые модели страдают галлюцинациями и могут выдавать убедительный по форме, но неверный по сути ответ. Я как-то попала в такую ловушку, работая с GPT на больших массивах данных. У меня был метод проверить, влез ли мой документ в контекстное окно модели (то есть, видит ли она его целиком и может ли обработать целиком за один раз). Я задавала вопросы про какой-нибудь объект, который находится в конце документа (я работаю с патентами, и запросы были, например, такие: «Напиши название патента номер 775» или «Сколько пунктов формулы в патенте 800»). Логика была в том, что, если модель правильно отвечает на вопрос, значит, она прочитала конец документа, значит, имеет его в доступе целиком.
А вот не значит.
Спустя некоторое время мне стало ясно, что ответы, которые генерируются моделью по мои документам, неполные или некорректные, однако открытой информации о том, какие механики использует GPT, не так много, поэтому пришлось ее допрашивать. Спрашиваю: «Дает ли мой метод (описанный выше) достоверный результат?» «Да,» – отвечает GPT. – «Отличный метод для проверки контекстного окна». Но я же вижу, что ее краткие пересказы неполные и анализ выглядит некорректно. Пришлось повозиться с запросами, но в итоге удалось выяснить, что GPT, по всей видимости, использует «скользящее окно». То есть, если она не может прочитать текст целиком, она читает доступный кусочек. Потом следующий, и так до тех пор, пока не найдет правильный ответ. Кроме того, она, скорее всего, использует инструменты (но наотрез отказывается в этом сознаваться) и пишет код, чтобы найти патент с нужным номером и вернуть мне его название, не читая весь документ. Так что размер документа надо ограничивать вручную и давать его по частям, иначе она не справится, но не сообщит об этом.
Будем верить, что в будущем смогут обеспечить и прозрачность 👍