Llama 4

Maverick

Llama 4Flagship
OutilsVisionSortie structurée

À propos de ce modèle

Llama 4 Maverick 17B Instruct (128E) is a high-capacity multimodal language model from Meta, built on a mixture-of-experts (MoE) architecture with 128 experts and 17 billion active parameters per forward pass (400B total). It supports multilingual text and image input, and produces multilingual text and code output across 12 supported languages. Optimized for vision-language tasks, Maverick is instruction-tuned for assistant-like behavior, image reasoning, and general-purpose multimodal interaction. Maverick features early fusion for native multimodality and a 1 million token context window. It was trained on a curated mixture of public, licensed, and Meta-platform data, covering ~22 trillion tokens, with a knowledge cutoff in August 2024. Released on April 5, 2025 under the Llama 4 Community License, Maverick is suited for research and commercial applications requiring advanced multimodal understanding and high model throughput.

Catégorie de performance

Flagship

Maverick est un modèle flagship de Llama 4 : le plus performant de leur gamme.

Meilleur modèle de ce fournisseur. Performances maximales sur les benchmarks, idéal pour les tâches exigeantes.

Tarification

Ce modèle est inclus dans les plans Elosia
Typepar 1M tokens
Entrée (prompt)$0.150
Sortie (complétion)$0.600

Capacités

Taille du contexte1.0M
Tokens de sortie max16K
TokenizerLlama4
Entréetext, image
Sortietext
Date de sortie5 avril 2025

Benchmarks

Intelligence générale
MMLU
88.2%
MMLU-Pro
80.5%
GPQA Diamond
69.8%
Mathématiques
MATH-500
85%
Programmation
HumanEval
89.5%
SWE-bench Verified
55%
Raisonnement
IFEval
88.8%

Usages recommandés

ProgrammationAnalyseChat généralÉcriture créativeRecherche

Points forts

  • Modèle open-weight le plus performant de Meta
  • Solide raisonnement général et programmation (HumanEval 89.5%)
  • Support multimodal natif (texte + image)
  • Open-weight avec licence commerciale permissive

Limites

  • En retrait par rapport aux meilleurs modèles propriétaires en raisonnement scientifique (GPQA 69.8%)
  • Grand modèle — nécessite des ressources de calcul significatives pour l'auto-hébergement

Ressources

Ce modèle peut utiliser vos données pour l'entraînement

Modèles similaires