Вы всё врёте: даже лучшие нейронные сети обманывают нас. Можно ли это исправить?
Нейросети впечатляют. Они пишут код, составляют тексты, переводят с одного языка на другой. Но иногда они… нагло лгут. Причём делают это с полной уверенностью. Задаёшь вопрос: «Какую книгу написал этот автор?» — и получаешь убедительный, но полностью вымышленный ответ. Запрашиваешь ссылку на источник — и видишь адрес, ведущий в никуда. Почему так происходит? И можно ли заставить нейросети говорить только правду? Давайте разберёмся.
Почему нейросети галлюцинируют?
Галлюцинации нейросетей — это не ошибка кода и не злой умысел разработчиков. Дело в том, что современные языковые модели, такие как ChatGPT, не «знают» информацию в привычном смысле. Они работают по-другому: предсказывают следующее слово в тексте на основе вероятностей.
Представьте, что вам нужно дописать предложение:
«В России столица — …»
Очевидно, что слово «Москва» здесь наиболее вероятно.
Теперь возьмём более сложный вопрос:
«Какие книги написал этот малоизвестный учёный?»
Если в данных модели нет точного ответа, она не остановится и не скажет «не знаю». Она попытается создать правдоподобную информацию: возможно, возьмёт название книги другого автора или придумает нечто похожее.
Так возникают галлюцинации. И чем сложнее или менее распространён запрос, тем выше вероятность, что модель начнёт фантазировать.
Но можно ли уменьшить эту проблему? Один из способов — использовать несколько моделей и точек зрения вместо одной.
Сейчас я работаю над Neira — AI-мастермайндом, который является попыткой переосмыслить формат умных чатов. Вместо одной модели, дающей односторонний ответ, Neira объединяет несколько точек зрения в едином контексте: это может быть идея для нового бизнеса или маркетинговая кампания.
Можно получить мнения экспертов — дизайнера, копирайтера, аналитика, маркетолога — и использовать топовые нейросети, такие как GPT-4o, Claude 3.5, вместе в едином пространстве.
Это будет не просто очередной AI-чат, а новый формат обсуждений и возможность устроить сильный брейншторм, где сильные стороны разных моделей работают в тандеме. Если вам интересно, то оставляйте заявку на ранний доступ:
Пример: неожиданные ошибки в DeepSeek
На прошлой неделе китайская компания DeepSeek выпустила две новые модели — DeepSeek V3 и R1. Они наделали шуму в AI-сообществе, продемонстрировав высокую точность при относительно низких затратах на обучение. Однако, как и другие модели, DeepSeek не застрахован от ошибок.
В некоторых тестах DeepSeek R1 выдавал нелогичные результаты при работе с разными языками. Например, при генерации текста на английском он мог неожиданно вставлять китайские иероглифы. Такие случаи показывают, как языковые модели могут путать контексты или допускать случайные ошибки из-за особенностей токенизации.
Даже GPT-4o может упорно заблуждаться
Ошибки случаются даже у самых продвинутых моделей. Например, в актуальной версии GPT-4o можно встретить крайне настойчивые заблуждения. Один из ярких примеров: модель уверенно заявляет, что в слове «параллель» четыре буквы «Л». Когда пользователь указывает на ошибку, нейросеть не просто не исправляется, а ещё более настойчиво доказывает свою правоту, даже выделяя буквы в слове. Наконец, она предлагает человеку пересчитать ещё раз — словно уверена, что ошибся именно он!
Это наглядно демонстрирует, что нейросети могут не только галлюцинировать, но и упорно отстаивать свою ошибку.
Как бороться с галлюцинациями?
Полностью избавиться от выдуманных ответов у нейросетей пока невозможно, но есть несколько эффективных стратегий, которые помогают снизить их количество.
1. Проверка фактов и критическое мышление
Пока даже самые продвинутые нейросети могут ошибаться, важно не доверять им безоговорочно. Если ответ кажется странным или слишком уверенным без доказательств — лучше перепроверить информацию вручную. Проверка фактов на достоверность — это минимум, который нужно делать при работе с языковыми моделями.
2. Улучшенные промпты и системные инструкции
При правильной настройке можно уменьшить количество ошибок. Например, можно заставить ИИ проверять противоречивые данные перед ответом или запрашивать подтверждение перед генерацией фактов. Это особенно заметно в «размышляющих» моделях вроде o1, o3 или DeepSeek R1, когда модель проверяет сама свой "мыслительный" процесс и выводы, к которым она пришла.
3. Использование RAG (Retrieval-Augmented Generation)
Один из лучших способов сделать ответы ИИ точнее — комбинировать генеративные модели с поиском по проверенным источникам. Вместо того чтобы придумывать ответ, модель сначала ищет релевантные данные (например, в документах или базе знаний), а затем строит на их основе обоснованный ответ. Так работают Perplexity AI, чат-боты клиентской поддержки и другие системы, использующие RAG.
4. Grounding — привязка к внешним источникам
Когда ИИ ссылается на конкретные источники данных (новостные сайты, научные статьи, официальные документы), вероятность галлюцинаций снижается. Например, Perplexity перед генерацией ответа проверяет информацию в реальном времени и дополняет текст ссылками. Grounding — это часть процесса RAG и позволяет значительно повысить точность фактов, которыми оперирует модель.
5. Ролевая система общения
Дополнительный способ минимизировать ошибки — многоуровневый анализ через ролевую систему общения. В своём проекте я реализую подход, где можно одновременно взаимодействовать с разными экспертами — разработчиком, аналитиком, маркетологом. То есть своего рода личный мастермайнд из AI экспертов.
Они дополняют друг друга, проверяя ответы и добавляя важные детали. Такой метод помогает формировать целостную картину, снижая вероятность ошибок.
Что дальше?
На днях я попробовал потестировать фактчекинг и граундинг на примере сообщений экспертов AI-мастермайнда. Как оказалось, уже сейчас есть решения, способные значительно улучшить качество ответов, и у меня получилось исправить фактические ошибки, которые эксперты выдумали во время общения.
О том, как это у меня получилось и о других интересных особенностях разработки проекта я пишу у себя в Telegram-канале «Код без тайн»:
А если вас заинтересовал мой проект AI-мастермайнда, вы можете оставить заявку на ранний доступ к Neira по ссылке:
Может дело не в нейросетях а в людях которые бездумно верят всему подряд?
Ну галлюцинации действительно есть, это особенность того, как они устроенны 😅
Интересная статья. А нейросети действительно периодически врут, я сталкивалась с тем, что gpt ученого придумал и доказывал мне, что он есть
Интересно, что даже Perplexity не всегда спасает со своим веб-поиском 🤔 нейросетям реально не хватает умения говорить «не знаю»
Примеры на gpt-4o, а как дела с o3-mini-high?
Хорошее замечание! Да, «мыслящие» модели обычно могут посчитать, но все таки Chain of Thought — это некоторый брутфорс и от галлюцинаций на 100% не избавляет
А может в слове параллель все-таки четыре буквы "л" 🧐