DeepSeek

DeepSeek v4 Pro

DeepSeekFlagship
RaisonnementOutilsSortie structurée

À propos de ce modèle

DeepSeek V4 Pro is a large-scale Mixture-of-Experts model from DeepSeek with 1.6T total parameters and 49B activated parameters, supporting a 1M-token context window. It is designed for advanced reasoning, coding,...

Catégorie de performance

Flagship

DeepSeek v4 Pro est un modèle flagship de DeepSeek : le plus performant de leur gamme.

Meilleur modèle de ce fournisseur. Performances maximales sur les benchmarks, idéal pour les tâches exigeantes.

Tarification

Ce modèle est inclus dans les plans Elosia
Abordable

Coût réduit. Adapté à un usage soutenu et aux interactions volumineuses.

Typepar 1M tokens
Entrée (prompt)$0.435
Sortie (complétion)$0.870
Lecture cache$0.0036

Capacités

Taille du contexte1.0M
Tokens de sortie max384K
TokenizerDeepSeek
Entréetext
Sortietext
Date de sortie24 avril 2026

Benchmarks

Intelligence générale
MMLU
90.1%
MMLU-Pro
87.5%
GPQA Diamond
90.1%
Mathématiques
MATH-500
Non reporté
Programmation
HumanEval
76.8%
SWE-bench Verified
80.6%
LiveCodeBench
93.5%
Raisonnement
IFEval
Non reporté
Humanity's Last Exam
37.7%
Agentique
SWE-bench Pro
55.4%
Terminal-Bench 2.0
67.9%

Usages recommandés

ProgrammationMathématiquesAnalyseRecherche

Points forts

  • Open-weight MIT — modèle frontier auto-hébergeable sans dépendance fournisseur
  • Leader en code à son niveau de prix (LiveCodeBench 93.5, SWE-bench Verified 80.6)
  • MoE 1,6T total / 49B params actifs — capacité frontier avec inférence efficace
  • Contexte 1M tokens avec attention sparse hybride (10% du KV cache de v3.2)

Limites

  • En retrait sur le rappel factuel face aux modèles propriétaires (SimpleQA-Verified 57.9 vs Gemini 75.6)
  • Humanity's Last Exam (37.7) en dessous de Claude Opus 4.7 et Gemini 3.1 Pro
  • Réglage de sécurité moins poussé que Claude/GPT

Ressources

Ce modèle peut utiliser vos données pour l'entraînement

Modèles similaires