Qwen

Qwen 3.5 Flash

QwenÉquilibré
RaisonnementOutilsVisionSortie structurée

À propos de ce modèle

The Qwen3.5 native vision-language Flash models are built on a hybrid architecture that integrates a linear attention mechanism with a sparse mixture-of-experts model, achieving higher inference efficiency. Compared to the 3 series, these models deliver a leap forward in performance for both pure text and multimodal tasks, offering fast response times while balancing inference speed and overall performance.

Catégorie de performance

Équilibré

Qwen 3.5 Flash est un modèle équilibré de Qwen : un bon compromis entre bonnes performances à un prix raisonnable.

Bon rapport coût-performance. Fiable pour la plupart des usages professionnels sans tarification premium.

Tarification

Ce modèle est inclus dans les plans Elosia
Typepar 1M tokens
Entrée (prompt)$0.065
Sortie (complétion)$0.260

Capacités

Taille du contexte1.0M
Tokens de sortie max66K
TokenizerQwen3
Entréetext, image, video
Sortietext
Date de sortie25 février 2026

Benchmarks

Intelligence générale
MMLU
Non reporté
GPQA Diamond
84.2%
Mathématiques
MATH-500
Non reporté
Programmation
HumanEval
Non reporté
SWE-bench Verified
69.2%
Raisonnement
IFEval
91.9%
Multimodalité
MMMU-Pro
75.1%

Usages recommandés

Chat généralProgrammationAnalyseRechercheTraduction

Points forts

  • Performances de classe frontier avec seulement 3B paramètres actifs (MoE)
  • Extrêmement abordable (0,10$/M input) avec une qualité proche du flagship
  • Fenêtre de contexte de 1M tokens via API
  • Support vision natif (images, vidéo, documents)
  • 201 langues supportées dont le français

Limites

  • En dessous du Qwen 3.5 27B dense sur la plupart des benchmarks
  • Score outils (BFCL-V4 : 67.3) inférieur aux concurrents
  • Pas de scores MMLU, HumanEval ou MATH-500 publiés

Ressources

Ce modèle peut utiliser vos données pour l'entraînement

Modèles similaires