Qwen

Qwen 2.5 7B instruct

QwenCompact
Outils

À propos de ce modèle

Qwen2.5 7B is the latest series of Qwen large language models. Qwen2.5 brings the following improvements upon Qwen2: - Significantly more knowledge and has greatly improved capabilities in coding and mathematics, thanks to our specialized expert models in these domains. - Significant improvements in instruction following, generating long texts (over 8K tokens), understanding structured data (e.g, tables), and generating structured outputs especially JSON. More resilient to the diversity of system prompts, enhancing role-play implementation and condition-setting for chatbots. - Long-context Support up to 128K tokens and can generate up to 8K tokens. - Multilingual support for over 29 languages, including Chinese, English, French, Spanish, Portuguese, German, Italian, Russian, Japanese, Korean, Vietnamese, Thai, Arabic, and more. Usage of this model is subject to [Tongyi Qianwen LICENSE AGREEMENT](https://huggingface.co/Qwen/Qwen1.5-110B-Chat/blob/main/LICENSE).

Catégorie de performance

Compact

Qwen 2.5 7B instruct est un modèle compact de Qwen : petit, rapide et abordable, optimisé pour la vitesse et le coût.

Petit, rapide et économique. Optimisé pour la vitesse et le faible coût, idéal pour les tâches simples ou à fort volume.

Tarification

Ce modèle est inclus dans les plans Elosia
Typepar 1M tokens
Entrée (prompt)$0.040
Sortie (complétion)$0.100

Capacités

Taille du contexte33K
Tokens de sortie max33K
TokenizerQwen
Entréetext
Sortietext
Date de sortie16 octobre 2024

Benchmarks

Intelligence générale
MMLU
74.2%
Mathématiques
MATH-500
65%
Programmation
HumanEval
75.6%

Usages recommandés

Chat généralProgrammationTraduction

Points forts

  • Solides performances pour un modèle de 7B paramètres
  • Excellent support multilingue (29+ langues dont le français)
  • Open-weight avec licence Apache 2.0
  • Coût très bas idéal pour les déploiements à fort volume

Limites

  • Raisonnement complexe limité en raison de la petite taille du modèle
  • Inadapté aux tâches avancées de programmation ou de recherche

Ressources

Ce modèle peut utiliser vos données pour l'entraînement

Modèles similaires