Вы всё врёте: даже лучшие нейронные сети обманывают нас. Можно ли это исправить?
Нейросети впечатляют. Они пишут код, составляют тексты, переводят с одного языка на другой. Но иногда они… нагло лгут. Причём делают это с полной уверенностью. Задаёшь вопрос: «Какую книгу написал этот автор?» — и получаешь убедительный, но полностью вымышленный ответ. Запрашиваешь ссылку на источник — и видишь адрес, ведущий в никуда. Почему так п…
Примеры на gpt-4o, а как дела с o3-mini-high?
Хорошее замечание! Да, «мыслящие» модели обычно могут посчитать, но все таки Chain of Thought — это некоторый брутфорс и от галлюцинаций на 100% не избавляет