Вы всё врёте: даже лучшие нейронные сети обманывают нас. Можно ли это исправить?

За пример галлюцинации в актуальной версии GPT-4o спасибо <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fpikabu.ru%2Fstory%2Fchat_gpt_po_sravneniyu_s_dipsik_tupit_12315049&postId=1789466" rel="nofollow noreferrer noopener" target="_blank">FreemanT</a>
За пример галлюцинации в актуальной версии GPT-4o спасибо FreemanT

Нейросети впечатляют. Они пишут код, составляют тексты, переводят с одного языка на другой. Но иногда они… нагло лгут. Причём делают это с полной уверенностью. Задаёшь вопрос: «Какую книгу написал этот автор?» — и получаешь убедительный, но полностью вымышленный ответ. Запрашиваешь ссылку на источник — и видишь адрес, ведущий в никуда. Почему так происходит? И можно ли заставить нейросети говорить только правду? Давайте разберёмся.

Почему нейросети галлюцинируют?

Галлюцинации нейросетей — это не ошибка кода и не злой умысел разработчиков. Дело в том, что современные языковые модели, такие как ChatGPT, не «знают» информацию в привычном смысле. Они работают по-другому: предсказывают следующее слово в тексте на основе вероятностей.

Представьте, что вам нужно дописать предложение:

«В России столица — …»

Очевидно, что слово «Москва» здесь наиболее вероятно.

Теперь возьмём более сложный вопрос:

«Какие книги написал этот малоизвестный учёный?»

Если в данных модели нет точного ответа, она не остановится и не скажет «не знаю». Она попытается создать правдоподобную информацию: возможно, возьмёт название книги другого автора или придумает нечто похожее.

Так возникают галлюцинации. И чем сложнее или менее распространён запрос, тем выше вероятность, что модель начнёт фантазировать.

Но можно ли уменьшить эту проблему? Один из способов — использовать несколько моделей и точек зрения вместо одной.

Сейчас я работаю над NeiraAI-мастермайндом, который является попыткой переосмыслить формат умных чатов. Вместо одной модели, дающей односторонний ответ, Neira объединяет несколько точек зрения в едином контексте: это может быть идея для нового бизнеса или маркетинговая кампания.

Можно получить мнения экспертов — дизайнера, копирайтера, аналитика, маркетолога — и использовать топовые нейросети, такие как GPT-4o, Claude 3.5, вместе в едином пространстве.

Это будет не просто очередной AI-чат, а новый формат обсуждений и возможность устроить сильный брейншторм, где сильные стороны разных моделей работают в тандеме. Если вам интересно, то оставляйте заявку на ранний доступ:

Пример: неожиданные ошибки в DeepSeek

На прошлой неделе китайская компания DeepSeek выпустила две новые модели — DeepSeek V3 и R1. Они наделали шуму в AI-сообществе, продемонстрировав высокую точность при относительно низких затратах на обучение. Однако, как и другие модели, DeepSeek не застрахован от ошибок.

В некоторых тестах DeepSeek R1 выдавал нелогичные результаты при работе с разными языками. Например, при генерации текста на английском он мог неожиданно вставлять китайские иероглифы. Такие случаи показывают, как языковые модели могут путать контексты или допускать случайные ошибки из-за особенностей токенизации.

Даже GPT-4o может упорно заблуждаться

Ошибки случаются даже у самых продвинутых моделей. Например, в актуальной версии GPT-4o можно встретить крайне настойчивые заблуждения. Один из ярких примеров: модель уверенно заявляет, что в слове «параллель» четыре буквы «Л». Когда пользователь указывает на ошибку, нейросеть не просто не исправляется, а ещё более настойчиво доказывает свою правоту, даже выделяя буквы в слове. Наконец, она предлагает человеку пересчитать ещё раз — словно уверена, что ошибся именно он!

Вы всё врёте: даже лучшие нейронные сети обманывают нас. Можно ли это исправить?

Это наглядно демонстрирует, что нейросети могут не только галлюцинировать, но и упорно отстаивать свою ошибку.

Как бороться с галлюцинациями?

Полностью избавиться от выдуманных ответов у нейросетей пока невозможно, но есть несколько эффективных стратегий, которые помогают снизить их количество.

1. Проверка фактов и критическое мышление

Пока даже самые продвинутые нейросети могут ошибаться, важно не доверять им безоговорочно. Если ответ кажется странным или слишком уверенным без доказательств — лучше перепроверить информацию вручную. Проверка фактов на достоверность — это минимум, который нужно делать при работе с языковыми моделями.

2. Улучшенные промпты и системные инструкции

При правильной настройке можно уменьшить количество ошибок. Например, можно заставить ИИ проверять противоречивые данные перед ответом или запрашивать подтверждение перед генерацией фактов. Это особенно заметно в «размышляющих» моделях вроде o1, o3 или DeepSeek R1, когда модель проверяет сама свой "мыслительный" процесс и выводы, к которым она пришла.

3. Использование RAG (Retrieval-Augmented Generation)

Схема работы RAG. Источник: <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fmedium.com%2F%40bijit211987%2Fadvanced-rag-for-llms-slms-5bcc6fbba411&postId=1789466" rel="nofollow noreferrer noopener" target="_blank">Bijit Ghosh</a>
Схема работы RAG. Источник: Bijit Ghosh

Один из лучших способов сделать ответы ИИ точнее — комбинировать генеративные модели с поиском по проверенным источникам. Вместо того чтобы придумывать ответ, модель сначала ищет релевантные данные (например, в документах или базе знаний), а затем строит на их основе обоснованный ответ. Так работают Perplexity AI, чат-боты клиентской поддержки и другие системы, использующие RAG.

4. Grounding — привязка к внешним источникам

Когда ИИ ссылается на конкретные источники данных (новостные сайты, научные статьи, официальные документы), вероятность галлюцинаций снижается. Например, Perplexity перед генерацией ответа проверяет информацию в реальном времени и дополняет текст ссылками. Grounding — это часть процесса RAG и позволяет значительно повысить точность фактов, которыми оперирует модель.

5. Ролевая система общения

Дополнительный способ минимизировать ошибки — многоуровневый анализ через ролевую систему общения. В своём проекте я реализую подход, где можно одновременно взаимодействовать с разными экспертами — разработчиком, аналитиком, маркетологом. То есть своего рода личный мастермайнд из AI экспертов.

Они дополняют друг друга, проверяя ответы и добавляя важные детали. Такой метод помогает формировать целостную картину, снижая вероятность ошибок.

Что дальше?

На днях я попробовал потестировать фактчекинг и граундинг на примере сообщений экспертов AI-мастермайнда. Как оказалось, уже сейчас есть решения, способные значительно улучшить качество ответов, и у меня получилось исправить фактические ошибки, которые эксперты выдумали во время общения.

О том, как это у меня получилось и о других интересных особенностях разработки проекта я пишу у себя в Telegram-канале «Код без тайн»:

А если вас заинтересовал мой проект AI-мастермайнда, вы можете оставить заявку на ранний доступ к Neira по ссылке:

8
1
1
14 комментариев

Может дело не в нейросетях а в людях которые бездумно верят всему подряд?

1

Ну галлюцинации действительно есть, это особенность того, как они устроенны 😅

1

Интересная статья. А нейросети действительно периодически врут, я сталкивалась с тем, что gpt ученого придумал и доказывал мне, что он есть

1

Интересно, что даже Perplexity не всегда спасает со своим веб-поиском 🤔 нейросетям реально не хватает умения говорить «не знаю»

Примеры на gpt-4o, а как дела с o3-mini-high?

Хорошее замечание! Да, «мыслящие» модели обычно могут посчитать, но все таки Chain of Thought — это некоторый брутфорс и от галлюцинаций на 100% не избавляет

А может в слове параллель все-таки четыре буквы "л" 🧐