Llama 4

Scout

Llama 4Équilibré
OutilsVisionSortie structurée

À propos de ce modèle

Llama 4 Scout 17B Instruct (16E) is a mixture-of-experts (MoE) language model developed by Meta, activating 17 billion parameters out of a total of 109B. It supports native multimodal input...

Catégorie de performance

Équilibré

Scout est un modèle équilibré de Llama 4 : un bon compromis entre bonnes performances à un prix raisonnable.

Bon rapport coût-performance. Fiable pour la plupart des usages professionnels sans tarification premium.

Tarification

Ce modèle est inclus dans les plans Elosia
Typepar 1M tokens
Entrée (prompt)$0.080
Sortie (complétion)$0.300

Capacités

Taille du contexte328K
Tokens de sortie max16K
TokenizerLlama4
Entréetext, image
Sortietext
Date de sortie5 avril 2025

Benchmarks

Intelligence générale
MMLU
83.5%
Mathématiques
MATH-500
78.5%
Programmation
HumanEval
84%
Raisonnement
IFEval
85.2%

Usages recommandés

Chat généralProgrammationRésuméTraduction

Points forts

  • Fenêtre de contexte massive de 10M tokens — la plus grande du marché
  • Architecture MoE efficace (17B actifs / 109B total)
  • Solide suivi d'instructions (IFEval 85.2%)
  • Open-weight avec licence commerciale permissive

Limites

  • Moins performant que Maverick sur le raisonnement complexe
  • La qualité peut se dégrader avec des contextes extrêmement longs

Ressources

Ce modèle peut utiliser vos données pour l'entraînement

Modèles similaires