DeepSeek V4 Flash is an efficiency-optimized Mixture-of-Experts model from DeepSeek with 284B total parameters and 13B activated parameters, supporting a 1M-token context window. It is designed for fast inference and...
Catégorie de performance
Équilibré
DeepSeek v4 Flash est un modèle équilibré de DeepSeek : un bon compromis entre bonnes performances à un prix raisonnable.
Bon rapport coût-performance. Fiable pour la plupart des usages professionnels sans tarification premium.
Tarification
Ce modèle est inclus dans les plans Elosia
Éco
Coût minimal. Idéal pour le très haut volume ou les tâches simples.
Type
par 1M tokens
Entrée (prompt)
$0.140
Sortie (complétion)
$0.280
Lecture cache
$0.0028
Capacités
Taille du contexte1.0M
Tokens de sortie max384K
TokenizerDeepSeek
Entréetext
Sortietext
Date de sortie24 avril 2026
Benchmarks
Intelligence générale
MMLU
88.7%
MMLU-Pro
86.2%
GPQA Diamond
88.1%
Mathématiques
MATH-500
Non reporté
Programmation
HumanEval
69.5%
SWE-bench Verified
79%
LiveCodeBench
91.6%
Agentique
Terminal-Bench 2.0
56.9%
Usages recommandés
ProgrammationMathématiquesAnalyseChat général
Points forts
Rapport coût/performance exceptionnel — ~3× moins cher que v4 Pro pour un raisonnement quasi-frontier
MoE 284B total / 13B actifs — débit élevé idéal pour agents et assistants de code
Contexte 1M tokens avec la même attention sparse hybride que v4 Pro
Open-weight MIT — déployable on-prem
Limites
Densité de connaissances factuelles plus faible que v4 Pro pour les tâches de rappel intensif
Le mode reasoning Max ajoute une latence significative — peu adapté à l'UX temps réel
MoE plus petite — performance plus faible sur l'écriture créative face aux modèles propriétaires