DeepSeek

DeepSeekDeepSeek V3
Кратко

DeepSeek — китайская AI-лаборатория, известная open-source моделями. DeepSeek V3.1 (2025) — топ-1 open-source LLM 2026: MoE-архитектура с 671B параметров (37B активных), цена в 15-30x ниже флагманов GPT/Claude при сопоставимом качестве на рутине.

DeepSeek основан в 2023 году. Сделал революцию open-source в начале 2025 — DeepSeek V3 показал, что MoE-архитектура позволяет open-source конкурировать с закрытыми флагманами.

Главное отличие — цена. DeepSeek V3.1 обходится в $0.20/$0.80 за миллион токенов вход/выход против $5/$25 у Claude Opus 4.7. Качество на рутине (переводы, описания товаров) — паритет с GPT-4o.

Доступ в РФ: на gptrf.ru — без VPN. Open-source веса можно развернуть локально (нужны 671GB VRAM для full FP16, ~167GB при INT4 — H100 кластер или NVL36).

Примеры

  • DeepSeek V3.1 — флагман open-source
  • MoE — архитектура (37B активных)
  • Цена $0.20/$0.80 за 1M токенов
  • Self-hosted в банковском контуре

Связанные термины

Часто задаваемые вопросы

DeepSeek хуже GPT-5.4?

На сложном reasoning — заметно. На рутине — паритет с GPT-4o при цене в 15-30x ниже.

Безопасно для бизнеса?

На gptrf.ru запросы через серверы РФ. Open-source веса позволяют локальное развёртывание для критичных данных.

Цена?

$0.20/$0.80 за миллион токенов. На gptrf.ru — pay-as-you-go.

Можно ли локально?

Да, скачайте веса с Hugging Face. Нужен H100 кластер для полной модели или INT4 quantization для меньших GPU.

Попробуйте нейросети на практике

30₽ при регистрации, без VPN, оплата в рублях.

Зарегистрироваться