Гиперпараметры (hyperparameters)

hyperparametersгиперпараметрыtemperaturetop-p
Кратко

Гиперпараметры LLM — настройки генерации, не меняющие саму модель: temperature (креативность), top-p (вероятность), top-k (количество кандидатов), max_tokens (длина ответа), frequency_penalty / presence_penalty (повторы).

Главный гиперпараметр — temperature (0.0-2.0). 0.0 = детерминированный ответ (всегда одинаковый). 1.0 = стандартная креативность. 2.0 = максимальная случайность (часто бессмыслица).

Для разных задач: температура 0.0-0.3 для фактов, кода, классификации. 0.7-1.0 для копирайта, диалогов. 1.0-1.5 для творческих задач (поэзия, мозговой штурм).

top-p (nucleus sampling) — отсекает редкие токены. 0.9 = стандарт, 0.5 = более консервативно. max_tokens — лимит длины ответа.

Примеры

  • temperature 0.0 — детерминированный
  • temperature 0.7 — стандарт
  • top-p 0.9 — nucleus sampling
  • max_tokens 4096 — длина ответа

Связанные термины

Часто задаваемые вопросы

Что такое temperature?

Степень «креативности» модели. 0 — детерминированно. 1 — стандарт. 2 — максимум случайности.

Какие настройки для кода?

temperature 0.0-0.3 — для точности. top-p 0.9 — стандарт.

Какие для копирайта?

temperature 0.7-1.0. top-p 0.9. Для разнообразия.

Где настраивать на gptrf.ru?

Через API в параметрах запроса. В UI — обычно скрыты в advanced-настройках.

Попробуйте нейросети на практике

30₽ при регистрации, без VPN, оплата в рублях.

Зарегистрироваться