Few-shot learning (промптинг с примерами)
Few-shot learning — техника, при которой в промпт добавляют 2-5 примеров желаемого ввода-вывода. LLM понимает паттерн из примеров и применяет его к новому запросу — без переобучения.
Few-shot — простая, но мощная техника. Хотите чтобы модель отвечала в строгом формате (JSON, табличка, специфический стиль) — дайте 2-5 примеров перед основным запросом.
Пример: «Переведи на формальный английский: ‘привет, как дела’ → ‘Good day, how are you?’; ‘спасибо большое’ → ‘Thank you very much’; ‘пока’ → ?» — модель ответит «Goodbye».
Zero-shot — без примеров. One-shot — один пример. Few-shot — 2-10. Современные топ-модели (GPT-5.4, Claude Opus 4.7) часто справляются zero-shot, но для специфичных форматов few-shot всё ещё лучшая практика.
Примеры
- →Перевод в строгом стиле
- →Классификация писем (спам / не спам)
- →Генерация JSON-ответов с определённой схемой
- →Имитация tone of voice автора
Связанные термины
Часто задаваемые вопросы
Что такое few-shot простыми словами?
Это «дай примеры в промпте». Показываете модели 2-5 примеров желаемого ответа, и она будет следовать паттерну.
Сколько примеров оптимально?
2-5 для простых задач. До 10-20 для сложных. Больше — растёт стоимость без значимого прироста качества.
Когда few-shot лучше fine-tuning?
Почти всегда для прототипа и малых данных. Few-shot не требует переобучения и работает «прямо сейчас». Fine-tuning нужен только для очень специфических задач с большим объёмом данных.
Все ли модели поддерживают few-shot?
Все современные LLM. Качество выше у больших моделей (Opus, GPT-5.4) — они быстрее «понимают» паттерн.
Попробуйте нейросети на практике
30₽ при регистрации, без VPN, оплата в рублях.
Зарегистрироваться