Галлюцинация (hallucination)
Галлюцинация — это ситуация, когда LLM (ChatGPT, Claude и пр.) выдумывает факты, имена, цитаты, ссылки или цифры, излагая их с уверенным тоном. Главная проблема всех LLM в 2026 году. Минимизируется через RAG, веб-поиск и грамотный промпт.
LLM устроены так, что их главная задача — предсказать наиболее вероятное продолжение текста, а не «выдать правду». Если модель не знает точного ответа — она всё равно сгенерирует что-то правдоподобное. Это и есть галлюцинация: текст звучит уверенно, но факты могут быть выдуманы.
Типичные галлюцинации: несуществующие книги/статьи/научные работы; вымышленные ссылки и URL; неточные цитаты исторических деятелей; ошибки в цифрах, датах, технических спецификациях; фейковые имена авторов; вымышленные API-методы при генерации кода.
Как минимизировать в 2026: 1) Использовать модели с reasoning (GPT-5.4 reasoning mode, Claude Opus 4.7) — они меньше галлюцинируют; 2) Включать веб-поиск (Grok 4, ChatGPT Search, Perplexity); 3) Применять RAG (модель отвечает только по вашим документам); 4) В промпте просить «если не знаешь — скажи не знаю»; 5) Проверять критичные факты вручную, особенно цифры, имена, ссылки.
Примеры
- →Выдуманная цитата Эйнштейна с правдоподобной формулировкой
- →Несуществующая научная статья в списке литературы
- →Вымышленный API-метод при генерации кода
- →Неточная цифра в финансовом анализе
- →Фейковая ссылка на источник
Связанные термины
Часто задаваемые вопросы
Почему ChatGPT и другие нейросети «выдумывают»?
Они обучены предсказывать наиболее вероятное продолжение текста, а не «выдавать правду». Если в обучающих данных не было точного ответа на ваш вопрос — модель сгенерирует правдоподобный, но не обязательно верный.
Какая нейросеть меньше всего галлюцинирует?
Claude Opus 4.7 в 2026 году — лидер по «честности»: чаще признаёт незнание и реже выдумывает. GPT-5.4 в reasoning-режиме также показывает низкий уровень галлюцинаций. Хуже всех — старые модели и младшие версии (Haiku, Mini, Nano).
Как избежать галлюцинаций нейросети?
1) Используйте RAG (отвечает только по вашим документам). 2) Включайте web-search или Grok 4. 3) В промпте просите «если не знаешь — скажи не знаю». 4) Всегда проверяйте критичные факты — цифры, цитаты, ссылки.
Можно ли полностью убрать галлюцинации?
Полностью — нет, это фундаментальная особенность архитектуры LLM. Минимизировать до 1-3% случаев — да, через комбинацию RAG + reasoning + веб-поиск + ручная проверка критичных фактов.
Попробуйте нейросети на практике
30₽ при регистрации, без VPN, оплата в рублях.
Зарегистрироваться