DeepSeek

DeepSeek v3.2

DeepSeekFlagship
RaisonnementOutilsSortie structurée

À propos de ce modèle

DeepSeek-V3.2 is a large language model designed to harmonize high computational efficiency with strong reasoning and agentic tool-use performance. It introduces DeepSeek Sparse Attention (DSA), a fine-grained sparse attention mechanism...

Catégorie de performance

Flagship

DeepSeek v3.2 est un modèle flagship de DeepSeek : le plus performant de leur gamme.

Meilleur modèle de ce fournisseur. Performances maximales sur les benchmarks, idéal pour les tâches exigeantes.

Tarification

Ce modèle est inclus dans les plans Elosia
Typepar 1M tokens
Entrée (prompt)$0.260
Sortie (complétion)$0.380
Lecture cache$0.130

Capacités

Taille du contexte164K
Tokens de sortie max
TokenizerDeepSeek
Entréetext
Sortietext
Date de sortie1 décembre 2025

Benchmarks

Intelligence générale
MMLU
90.8%
GPQA Diamond
82.4%
Mathématiques
MATH-500
92%
Programmation
HumanEval
90.5%
SWE-bench Verified
73.1%
Raisonnement
IFEval
86.5%

Usages recommandés

ProgrammationMathématiquesAnalyseRecherche

Points forts

  • Excellent rapport qualité-prix
  • Raisonnement mathématique de pointe pour un modèle ouvert (AIME 93.1%)
  • Modèle open-weight (transparence et auto-hébergement)
  • Solide en programmation avec Sparse Attention pour une inférence efficace

Limites

  • Peut être en retrait sur les tâches créatives face aux modèles propriétaires
  • Réglage de sécurité moins poussé que Claude/GPT

Ressources

Ce modèle peut utiliser vos données pour l'entraînement

Modèles similaires