Few-shot learning (промптинг с примерами)

few-shotfew-shot promptingin-context learning
Кратко

Few-shot learning — техника, при которой в промпт добавляют 2-5 примеров желаемого ввода-вывода. LLM понимает паттерн из примеров и применяет его к новому запросу — без переобучения.

Few-shot — простая, но мощная техника. Хотите чтобы модель отвечала в строгом формате (JSON, табличка, специфический стиль) — дайте 2-5 примеров перед основным запросом.

Пример: «Переведи на формальный английский: ‘привет, как дела’ → ‘Good day, how are you?’; ‘спасибо большое’ → ‘Thank you very much’; ‘пока’ → ?» — модель ответит «Goodbye».

Zero-shot — без примеров. One-shot — один пример. Few-shot — 2-10. Современные топ-модели (GPT-5.4, Claude Opus 4.7) часто справляются zero-shot, но для специфичных форматов few-shot всё ещё лучшая практика.

Примеры

  • Перевод в строгом стиле
  • Классификация писем (спам / не спам)
  • Генерация JSON-ответов с определённой схемой
  • Имитация tone of voice автора

Связанные термины

Часто задаваемые вопросы

Что такое few-shot простыми словами?

Это «дай примеры в промпте». Показываете модели 2-5 примеров желаемого ответа, и она будет следовать паттерну.

Сколько примеров оптимально?

2-5 для простых задач. До 10-20 для сложных. Больше — растёт стоимость без значимого прироста качества.

Когда few-shot лучше fine-tuning?

Почти всегда для прототипа и малых данных. Few-shot не требует переобучения и работает «прямо сейчас». Fine-tuning нужен только для очень специфических задач с большим объёмом данных.

Все ли модели поддерживают few-shot?

Все современные LLM. Качество выше у больших моделей (Opus, GPT-5.4) — они быстрее «понимают» паттерн.

Попробуйте нейросети на практике

30₽ при регистрации, без VPN, оплата в рублях.

Зарегистрироваться