Zero-shot learning
Zero-shot learning — это способность LLM выполнять задачу без явных примеров в промпте, опираясь только на инструкцию. Современные топ-модели (GPT-5.4, Claude Opus 4.7) zero-shot решают большинство задач на уровне few-shot.
До эпохи LLM нейросети нужно было fine-tuning'ить под каждую задачу: для классификации спама — отдельная модель, для перевода — другая. Zero-shot способность означает, что одна модель решает любую задачу из инструкции.
GPT-3 (2020) показал zero-shot transfer впервые в большом масштабе. С 2024 года GPT-5.4 и Claude Opus 4.7 zero-shot почти равны few-shot — паттерны заучены при обучении.
На практике: если задача типовая (перевод, summarization, классификация) — zero-shot хватит. Для специфичных форматов (строгий JSON-вывод, tone of voice бренда) — добавляйте few-shot примеры.
Примеры
- →«Переведи этот текст на английский» (без примеров)
- →«Классифицируй: позитив / негатив»
- →«Резюмируй статью в 3 предложения»
- →«Найди ошибки в коде»
Связанные термины
Часто задаваемые вопросы
Что такое zero-shot простыми словами?
Модель решает задачу по описанию в промпте, без примеров. «Переведи на английский: ...» — это zero-shot.
Когда zero-shot не работает?
Для очень специфичных задач (формат JSON, ToV бренда, узкий жаргон). Тогда добавляйте few-shot примеры.
Какие модели лучшие в zero-shot?
GPT-5.4, Claude Opus 4.7, Gemini 3.1 Pro — флагманы 2026. Малые модели чаще требуют few-shot.
Чем отличается от few-shot?
Zero-shot — без примеров, только инструкция. Few-shot — с 2-5 примерами в промпте.
Попробуйте нейросети на практике
30₽ при регистрации, без VPN, оплата в рублях.
Зарегистрироваться