DeepSeek

DeepSeek R1 0528

DeepSeekFlagship
RaisonnementOutilsSortie structurée

À propos de ce modèle

May 28th update to the [original DeepSeek R1](/deepseek/deepseek-r1) Performance on par with [OpenAI o1](/openai/o1), but open-sourced and with fully open reasoning tokens. It's 671B parameters in size, with 37B active in an inference pass. Fully open-source model.

Catégorie de performance

Flagship

DeepSeek R1 0528 est un modèle flagship de DeepSeek : le plus performant de leur gamme.

Meilleur modèle de ce fournisseur. Performances maximales sur les benchmarks, idéal pour les tâches exigeantes.

Tarification

Ce modèle est inclus dans les plans Elosia
Typepar 1M tokens
Entrée (prompt)$0.450
Sortie (complétion)$2.15
Lecture cache$0.225

Capacités

Taille du contexte164K
Tokens de sortie max66K
TokenizerDeepSeek
Entréetext
Sortietext
Date de sortie28 mai 2025

Benchmarks

Intelligence générale
MMLU
90.5%
MMLU-Pro
85%
GPQA Diamond
87.5%
Mathématiques
MATH-500
97.3%
AIME 2025
87.5%
Programmation
HumanEval
88.5%
SWE-bench Verified
57.6%
LiveCodeBench
73.3%
Raisonnement
IFEval
84%
Humanity's Last Exam
17.7%

Usages recommandés

MathématiquesRechercheAnalyseProgrammation

Points forts

  • Raisonnement mathématique exceptionnel (MATH-500 97.3%, AIME 96.3%)
  • Solide raisonnement scientifique rivalisant avec les modèles propriétaires (GPQA 87.5%)
  • Modèle de raisonnement open-weight avec chaîne de pensée transparente
  • Excellent rapport qualité-prix — raisonnement de pointe à tarif de modèle ouvert

Limites

  • Réponses plus lentes en raison du processus de réflexion étendu
  • Moins performant sur les tâches d'ingénierie logicielle (SWE-bench 57.6%)
  • Écriture créative et conversation moins naturelles que les modèles optimisés pour le chat

Ressources

Ce modèle peut utiliser vos données pour l'entraînement

Modèles similaires