DeepSeek

DeepSeek v3.2

DeepSeekFlagship
RaisonnementOutilsSortie structurée

À propos de ce modèle

DeepSeek-V3.2 is a large language model designed to harmonize high computational efficiency with strong reasoning and agentic tool-use performance. It introduces DeepSeek Sparse Attention (DSA), a fine-grained sparse attention mechanism that reduces training and inference cost while preserving quality in long-context scenarios. A scalable reinforcement learning post-training framework further improves reasoning, with reported performance in the GPT-5 class, and the model has demonstrated gold-medal results on the 2025 IMO and IOI. V3.2 also uses a large-scale agentic task synthesis pipeline to better integrate reasoning into tool-use settings, boosting compliance and generalization in interactive environments. Users can control the reasoning behaviour with the `reasoning` `enabled` boolean. [Learn more in our docs](https://openrouter.ai/docs/use-cases/reasoning-tokens#enable-reasoning-with-default-config)

Catégorie de performance

Flagship

DeepSeek v3.2 est un modèle flagship de DeepSeek : le plus performant de leur gamme.

Meilleur modèle de ce fournisseur. Performances maximales sur les benchmarks, idéal pour les tâches exigeantes.

Tarification

Ce modèle est inclus dans les plans Elosia
Typepar 1M tokens
Entrée (prompt)$0.260
Sortie (complétion)$0.380
Lecture cache$0.130

Capacités

Taille du contexte164K
Tokens de sortie max
TokenizerDeepSeek
Entréetext
Sortietext
Date de sortie1 décembre 2025

Benchmarks

Intelligence générale
MMLU
90.8%
GPQA Diamond
82.4%
Mathématiques
MATH-500
92%
Programmation
HumanEval
90.5%
SWE-bench Verified
73.1%
Raisonnement
IFEval
86.5%

Usages recommandés

ProgrammationMathématiquesAnalyseRecherche

Points forts

  • Excellent rapport qualité-prix
  • Raisonnement mathématique de pointe pour un modèle ouvert (AIME 93.1%)
  • Modèle open-weight (transparence et auto-hébergement)
  • Solide en programmation avec Sparse Attention pour une inférence efficace

Limites

  • Peut être en retrait sur les tâches créatives face aux modèles propriétaires
  • Réglage de sécurité moins poussé que Claude/GPT

Ressources

Ce modèle peut utiliser vos données pour l'entraînement

Modèles similaires