Гиперпараметры (hyperparameters)
Гиперпараметры LLM — настройки генерации, не меняющие саму модель: temperature (креативность), top-p (вероятность), top-k (количество кандидатов), max_tokens (длина ответа), frequency_penalty / presence_penalty (повторы).
Главный гиперпараметр — temperature (0.0-2.0). 0.0 = детерминированный ответ (всегда одинаковый). 1.0 = стандартная креативность. 2.0 = максимальная случайность (часто бессмыслица).
Для разных задач: температура 0.0-0.3 для фактов, кода, классификации. 0.7-1.0 для копирайта, диалогов. 1.0-1.5 для творческих задач (поэзия, мозговой штурм).
top-p (nucleus sampling) — отсекает редкие токены. 0.9 = стандарт, 0.5 = более консервативно. max_tokens — лимит длины ответа.
Примеры
- →temperature 0.0 — детерминированный
- →temperature 0.7 — стандарт
- →top-p 0.9 — nucleus sampling
- →max_tokens 4096 — длина ответа
Связанные термины
Часто задаваемые вопросы
Что такое temperature?
Степень «креативности» модели. 0 — детерминированно. 1 — стандарт. 2 — максимум случайности.
Какие настройки для кода?
temperature 0.0-0.3 — для точности. top-p 0.9 — стандарт.
Какие для копирайта?
temperature 0.7-1.0. top-p 0.9. Для разнообразия.
Где настраивать на gptrf.ru?
Через API в параметрах запроса. В UI — обычно скрыты в advanced-настройках.
Попробуйте нейросети на практике
30₽ при регистрации, без VPN, оплата в рублях.
Зарегистрироваться