GPU (Graphics Processing Unit)
GPU (Graphics Processing Unit) — графический процессор. Изначально для рендеринга графики, сейчас — основной инструмент для обучения и инференса нейросетей. Тысячи параллельных ядер делают GPU в 10-100x быстрее CPU на матричных операциях, лежащих в основе трансформеров.
Почему GPU для ИИ: нейросети — это, по сути, гигантские произведения матриц. У CPU 8-32 ядра общего назначения, у GPU — тысячи специализированных ядер для параллельных вычислений. На обучении LLM это даёт 10-100x ускорение.
Ключевые модели NVIDIA для ИИ 2025-2026: H100 (Hopper) — 80 ГБ HBM3, FP8 поддержка; H200 — 141 ГБ HBM3e; B100/B200 (Blackwell) — следующее поколение, до 192 ГБ HBM3e. Стоимость H100 — $30-40K, B200 — $60-80K.
Конкуренты: AMD MI300, Google TPU v5e/v5p (Cloud only), Intel Gaudi 3. На инференс работают и более бюджетные RTX 4090/5090.
В России: аренда GPU через Yandex Cloud (A100), Selectel (H100, A100), VK Cloud. Из-за санкций H100/B200 закупаются через 'параллельный импорт', цена выше мирового на 30-50%.
Примеры
- →NVIDIA H100 — обучение LLM
- →NVIDIA RTX 5090 — инференс на рабочей станции
- →Google TPU v5p — обучение Gemini
- →AMD MI300X — конкурент H100
Связанные термины
Часто задаваемые вопросы
Сколько GPU нужно для обучения LLM?
GPT-4 был обучен на ~25,000 A100. Llama 3 70B — ~6,000 H100. Маленькую модель 7B можно обучить на 8 H100 за неделю.
Можно ли обойтись без GPU?
Для инференса — да, на CPU работают компактные модели через quantization (Llama 7B Q4 на 32 ГБ RAM). Для обучения большой LLM — практически нет.
Где арендовать GPU в России?
Yandex Cloud (A100), Selectel (H100, A100), VK Cloud, Cloud.ru. Час H100 — 200-400₽. Месяц — 100-300К₽.
RTX 4090 для домашнего ИИ?
Подходит для инференса моделей до 30B и fine-tuning через LoRA. 24 ГБ VRAM хватает для большинства open-source моделей.
Попробуйте нейросети на практике
30₽ при регистрации, без VPN, оплата в рублях.
Зарегистрироваться