DeepSeek
DeepSeek — китайская AI-лаборатория, известная open-source моделями. DeepSeek V3.1 (2025) — топ-1 open-source LLM 2026: MoE-архитектура с 671B параметров (37B активных), цена в 15-30x ниже флагманов GPT/Claude при сопоставимом качестве на рутине.
DeepSeek основан в 2023 году. Сделал революцию open-source в начале 2025 — DeepSeek V3 показал, что MoE-архитектура позволяет open-source конкурировать с закрытыми флагманами.
Главное отличие — цена. DeepSeek V3.1 обходится в $0.20/$0.80 за миллион токенов вход/выход против $5/$25 у Claude Opus 4.7. Качество на рутине (переводы, описания товаров) — паритет с GPT-4o.
Доступ в РФ: на gptrf.ru — без VPN. Open-source веса можно развернуть локально (нужны 671GB VRAM для full FP16, ~167GB при INT4 — H100 кластер или NVL36).
Примеры
- →DeepSeek V3.1 — флагман open-source
- →MoE — архитектура (37B активных)
- →Цена $0.20/$0.80 за 1M токенов
- →Self-hosted в банковском контуре
Связанные термины
Часто задаваемые вопросы
DeepSeek хуже GPT-5.4?
На сложном reasoning — заметно. На рутине — паритет с GPT-4o при цене в 15-30x ниже.
Безопасно для бизнеса?
На gptrf.ru запросы через серверы РФ. Open-source веса позволяют локальное развёртывание для критичных данных.
Цена?
$0.20/$0.80 за миллион токенов. На gptrf.ru — pay-as-you-go.
Можно ли локально?
Да, скачайте веса с Hugging Face. Нужен H100 кластер для полной модели или INT4 quantization для меньших GPU.
Попробуйте нейросети на практике
30₽ при регистрации, без VPN, оплата в рублях.
Зарегистрироваться