Minimax

Minimax 2.7

MinimaxFlagship
RaisonnementOutils

À propos de ce modèle

MiniMax-M2.7 is a next-generation large language model designed for autonomous, real-world productivity and continuous improvement. Built to actively participate in its own evolution, M2.7 integrates advanced agentic capabilities through multi-agent collaboration, enabling it to plan, execute, and refine complex tasks across dynamic environments. Trained for production-grade performance, M2.7 handles workflows such as live debugging, root cause analysis, financial modeling, and full document generation across Word, Excel, and PowerPoint. It delivers strong results on benchmarks including 56.2% on SWE-Pro and 57.0% on Terminal Bench 2, while achieving a 1495 ELO on GDPval-AA, setting a new standard for multi-agent systems operating in real-world digital workflows.

Catégorie de performance

Flagship

Minimax 2.7 est un modèle flagship de Minimax : le plus performant de leur gamme.

Meilleur modèle de ce fournisseur. Performances maximales sur les benchmarks, idéal pour les tâches exigeantes.

Tarification

Ce modèle est inclus dans les plans Elosia
Typepar 1M tokens
Entrée (prompt)$0.300
Sortie (complétion)$1.20
Lecture cache$0.060

Capacités

Taille du contexte205K
Tokens de sortie max131K
TokenizerOther
Entréetext
Sortietext
Date de sortie18 mars 2026

Benchmarks

Intelligence générale
MMLU
Non reporté
GPQA Diamond
Non reporté
Mathématiques
MATH-500
Non reporté
Programmation
HumanEval
Non reporté
SWE-bench Verified
Non reporté
Raisonnement
IFEval
Non reporté
Agentique
SWE-bench Pro
56.2%
Terminal-Bench 2.0
57%
VIBE-Pro
55.6%
Multi SWE Bench
52.7%

Usages recommandés

ProgrammationAnalyseRechercheExtraction de données

Points forts

  • Codage agentique de pointe (SWE-Pro 56,2%, Terminal-Bench 57,0%)
  • Capacité de livraison de projets complets (VIBE-Pro 55,6%)
  • Modèle auto-évolutif avec des capacités autonomes de recherche
  • Extrêmement rentable à 0,30$/1,20$ par M tokens avec 205K de contexte

Limites

  • Aucun benchmark académique classique publié (MMLU, GPQA, MATH)
  • Texte uniquement — pas de support multimodal
  • Communauté et écosystème plus restreints par rapport à Claude/GPT/Gemini

Ressources

Ce modèle peut utiliser vos données pour l'entraînement

Modèles similaires