Контекстное окно (context window)
Контекстное окно — это максимальный объём текста, который нейросеть может «удерживать в памяти» в рамках одного диалога. Измеряется в токенах. В 2026 году флагманы (GPT-5.4, Claude Opus 4.7, Gemini 3.1 Pro) имеют около 1 миллиона токенов = целые книги или кодовые базы за раз.
Контекстное окно — главный параметр LLM в 2026 году. Чем больше окно, тем больше задач модель может решить за один запрос: загрузить договор на 200 страниц + найти противоречия, проанализировать репозиторий + предложить рефакторинг, прочитать 10 научных статей + сделать сводку.
Эволюция размеров: GPT-3 (2020) — 4К токенов, GPT-4 (2023) — 32К, GPT-4 Turbo (2023) — 128К, Claude 3 (2024) — 200К, Gemini 1.5 (2024) — 1М. В 2026: GPT-5.4 = 1М, Claude Opus 4.7 = 1М, Gemini 3.1 Pro = 1М. Это означает: одной модели можно скормить 5 томов «Войны и мира» или весь репозиторий среднего проекта.
Важная нюанс — «качество внимания» по всему контексту. Многие модели хорошо работают на первых и последних 100К токенов и хуже — посередине (Lost-in-the-middle problem). В 2026 эту проблему решили Claude и Gemini, но не до конца — для критичных задач лучше класть важное в начало или конец.
Примеры
- →1М токенов = ~750 тысяч слов = библиотека книг
- →Загрузить весь репозиторий + попросить рефакторинг
- →Проанализировать 10 PDF-договоров за один запрос
- →Перевести роман целиком сохраняя стиль
Связанные термины
Часто задаваемые вопросы
Что такое контекстное окно простыми словами?
Это «оперативная память» нейросети в рамках одного диалога — сколько текста она может одновременно «удерживать в голове». Измеряется в токенах. В 2026 топ-модели держат около 1 миллиона токенов = целые книги.
У какой нейросети самое большое контекстное окно?
Gemini 3.1 Pro — 1М токенов (~1.5 млн слов). Claude Opus 4.7 и GPT-5.4 — по 1М. Все три доступны на gptrf.ru без VPN.
Зачем нужен большой контекст?
Чтобы загружать в модель целые документы, кодовые базы, серии статей за один запрос. Без этого пришлось бы делить на куски и терять связи между ними. Большой контекст = более точные и связные ответы по большим объёмам данных.
Сколько символов помещается в 1 миллион токенов?
Около 4-5 миллионов символов на английском или 2.5-3 миллиона на русском (русский «дороже» в токенах). Это эквивалент 5-10 томов крупных книг или средней корпоративной wiki.
Попробуйте нейросети на практике
30₽ при регистрации, без VPN, оплата в рублях.
Зарегистрироваться