Zero-shot learning

zero-shotzero-shot prompting
Кратко

Zero-shot learning — это способность LLM выполнять задачу без явных примеров в промпте, опираясь только на инструкцию. Современные топ-модели (GPT-5.4, Claude Opus 4.7) zero-shot решают большинство задач на уровне few-shot.

До эпохи LLM нейросети нужно было fine-tuning'ить под каждую задачу: для классификации спама — отдельная модель, для перевода — другая. Zero-shot способность означает, что одна модель решает любую задачу из инструкции.

GPT-3 (2020) показал zero-shot transfer впервые в большом масштабе. С 2024 года GPT-5.4 и Claude Opus 4.7 zero-shot почти равны few-shot — паттерны заучены при обучении.

На практике: если задача типовая (перевод, summarization, классификация) — zero-shot хватит. Для специфичных форматов (строгий JSON-вывод, tone of voice бренда) — добавляйте few-shot примеры.

Примеры

  • «Переведи этот текст на английский» (без примеров)
  • «Классифицируй: позитив / негатив»
  • «Резюмируй статью в 3 предложения»
  • «Найди ошибки в коде»

Связанные термины

Часто задаваемые вопросы

Что такое zero-shot простыми словами?

Модель решает задачу по описанию в промпте, без примеров. «Переведи на английский: ...» — это zero-shot.

Когда zero-shot не работает?

Для очень специфичных задач (формат JSON, ToV бренда, узкий жаргон). Тогда добавляйте few-shot примеры.

Какие модели лучшие в zero-shot?

GPT-5.4, Claude Opus 4.7, Gemini 3.1 Pro — флагманы 2026. Малые модели чаще требуют few-shot.

Чем отличается от few-shot?

Zero-shot — без примеров, только инструкция. Few-shot — с 2-5 примерами в промпте.

Попробуйте нейросети на практике

30₽ при регистрации, без VPN, оплата в рублях.

Зарегистрироваться