Context Engineering
Context Engineering — дисциплина управления тем, что попадает в контекст LLM: какие документы, в каком порядке, с какой релевантностью. Эволюция prompt engineering для эпохи длинных контекстов 1M+ токенов 2026 года.
Когда контекст у моделей был 4-32K токенов, главным было «как сформулировать промпт» (prompt engineering). С 2025-2026, когда контексты выросли до 1-2M токенов, появилась новая задача: какие данные положить в этот огромный контекст.
Ключевые техники: 1) Прерывание мусора (irrelevant data ухудшает качество даже если есть место); 2) Lost-in-the-middle — важное в начало или конец, не середину; 3) Структурирование (markdown headers, теги XML) для навигации; 4) RAG vs длинный контекст — баланс между релевантностью и стоимостью; 5) Cache-augmented generation — заранее кэшировать большой контекст для скорости.
В 2026 context engineering — отдельная роль в командах с LLM-приложениями (Context Engineer / Prompt Engineer часто совмещены).
Примеры
- →Lost-in-the-middle problem
- →Cache-augmented generation
- →Structured prompts с markdown
- →RAG + long-context гибрид
Связанные термины
Часто задаваемые вопросы
Чем отличается от prompt engineering?
Prompt engineering — как сформулировать запрос. Context engineering — что положить в контекст вокруг запроса. С появлением 1M+ контекстов вторая задача стала важнее.
Какая главная проблема длинного контекста?
Lost-in-the-middle: модели хорошо «помнят» начало и конец контекста, плохо — середину. Кладите важное в начало или в конец.
RAG или длинный контекст?
Для маленьких баз (<100 страниц) — длинный контекст проще. Для больших — RAG обязателен (дешевле и точнее).
Какие модели лучшие для длинного контекста?
Claude Opus 4.7 — лидер по качеству на 1M контексте. GPT-5.4 — близко. Gemini 3.1 Pro — также 1M.
Попробуйте нейросети на практике
30₽ при регистрации, без VPN, оплата в рублях.
Зарегистрироваться