Qwen
famille de grands modèles de langage
From Wikipedia, the free encyclopedia
Qwen (également connu sous le nom de Tongyi Qianwen, ou en chinois 通义千问) est une famille de grands modèles de langage développés par Alibaba Cloud. De nombreuses variantes de Qwen sont diffusées sous la licence Apache-2.0, tandis que d'autres sont servies via Alibaba Cloud[1].
| Développé par | Alibaba Cloud |
|---|---|
| Première version | |
| Type |
Dialogueur Grand modèle de langage |
| Licence | Licence Apache 2.0 |
| Site web | qwen.ai |
En juillet 2024, le South China Morning Post a rapporté que la plateforme d'évaluation comparative SuperCLUE classait Qwen2‑72B‑Instruct derrière GPT‑4o d'OpenAI et Claude 3.5 Sonnet d'Anthropic et devant d'autres modèles chinois[2].
Modèles

Transform this image into painting in the style of Picasso and Juan GrisAlibaba a lancé une version bêta de Qwen en avril 2023 sous le nom de Tongyi Qianwen, puis l'a ouverte au public en septembre 2023 après avoir obtenu l'autorisation réglementaire[3],[4].
L'architecture du modèle était basée sur l'architecture Llama développée par Meta AI[5],[6] En décembre 2023, Meta AI a mis à disposition ses modèles de taille 72B et 1,8B (c.-à-d. 72 et 1,8 milliards de paramètres), tandis que les poids de Qwen 7B ont été publiés en août[7],[8]. Bien que leurs modèles soient parfois qualifiés d'open source, le code d'entraînement n'a été ni publié ni documenté, et ils ne répondent ni aux critères de la définition de l'IA open source, ni à ceux du Model Openness Framework de la Fondation Linux.
En juin 2024, Alibaba a lancé Qwen2 et, en septembre, a rendu public les paramètres entraînés (« poids ») de ses modèles, tout en conservant la propriété de ses modèles les plus avancés[9],[10]. Qwen2 contient des modèles clairsemés (mélange d'experts (en)) et des modèles denses[11].
En novembre 2024, QwQ-32B-Preview, un modèle de raisonnement similaire à o1 d'OpenAI, a été publié sous licence Apache 2.0. Cependant, seuls les poids ont été rendus publics, pas le jeu de données ou la méthode d'entraînement[12],[13]. QwQ possède une fenêtre de contexte de 32 000 jetons, et surpasse o1 sur certains tests de performance[14].
La série Qwen-VL est une gamme de modèles de langage visuels qui combine un transformateur transformateur visuel (en) avec un grand modèle de langage[5],[15]. Alibaba a lancé Qwen2-VL avec des variantes à 2 et 7 milliards de paramètres[16],[17],[18].
En janvier 2025, Qwen2.5-VL a été lancé avec des variantes à 3, 7, 32 et 72 milliards de paramètres[19]. Tous les modèles, à l'exception de la variante 72 milliards, sont distribués sous licence Apache 2.0[20]. Qwen-VL-Max était le modèle de vision phare d'Alibaba depuis 2024, commercialisé par Alibaba Cloud au prix de 0,41 USD par million de jetons d'entrée[21].
Alibaba a lancé plusieurs autres modèles, tels que Qwen-Audio et Qwen2-Math[22]. Au total, plus de 100 modèles ont été rendus accessibles au public, et ces modèles ont été téléchargés plus de 40 millions de fois[10]. Des versions améliorées de Qwen ont été développées par des passionnés, comme « Liberated Qwen », développé par Abacus AI, une entreprise basée à San Francisco. Cette version répond à toute requête des utilisateurs sans restriction de contenu[23].
Le 29 janvier 2025, Alibaba a lancé Qwen2.5-Max. Selon un article de blog d'Alibaba, Qwen2.5-Max surpasse d'autres modèles de base tels que GPT-4o, DeepSeek-V3 et Llama-3.1-405B dans des tests de performance clés[24],[25]. En février 2025, Alibaba a annoncé sur son compte X officiel que le modèle 2.5-Max serait rendu public, mais il n'a pas encore été publié[26].
Le 24 mars 2025, Alibaba a lancé Qwen2.5-VL-32B-Instruct comme successeur au modèle Qwen2.5-VL. Il a été publié sous la licence Apache 2.0[27],[28].
Le 26 mars 2025, Qwen2.5-Omni-7B a été publié sous licence Apache 2.0 et mis à disposition via chat.qwen.ai, ainsi que sur des plateformes telles que Hugging Face, GitHub et ModelScope[29]. Le modèle Qwen2.5-Omni accepte du texte, des images, des vidéos et de l'audio en entrée, et peut générer du texte et de l'audio en sortie, ce qui permet de l'utiliser pour la conversation vocale en temps réel, à l'instar de GPT-4o d'OpenAI[29].
Le 28 avril 2025, la famille de modèles Qwen3 est publiée[30], tous les modèles étant distribués sous licence Apache 2.0. Cette famille comprend des modèles denses (0,6 milliard, 1,7 milliard, 4 milliards, 8 milliards, 14 milliards et 32 milliards de paramètres) et des modèles clairsemés (30 milliards avec 3 milliards de paramètres activés, 235 milliards avec 22 milliards de paramètres activés). Ils sont entraînés sur 36 000 milliards de tokens dans 119 langues et dialectes[31]. Tous les modèles, à l'exception des variantes 0,6 milliard, 1,7 milliard et 4 milliards, disposent d'une fenêtre de contexte de 128 000 tokens. À l'instar du modèle o1 d'OpenAI et de QwQ 32B, le modèle Qwen3 est un modèle de raisonnement dont les capacités avancées de raisonnement peuvent être activées ou désactivées via le tokenizer. Les modèles Qwen3 sont disponibles sur chat.qwen.ai, et peuvent être téléchargés via Hugging Face et ModelScope[32].
Le 5 septembre 2025, Alibaba a lancé Qwen3-Max[33]. Selon le compte X officiel d'Alibaba, ce modèle surpasse d'autres modèles de base sans raisonnement tels que Qwen3-235B-A22B-Instruct-2507, Kimi K2 et DeepSeek V3.1[34]. Bien qu'il n'ait pas été disponible dès le départ, le mode de réflexion a été rendu public en novembre 2025.
Le 10 septembre 2025, Qwen3-Next a été publié sous licence Apache 2.0 et mis à disposition via chat.qwen.ai, ainsi que sur des plateformes telles que Hugging Face et Model Scope. Qwen3-Next inclut deux modèles post-entraînés : Instruct et Thinking. Qwen3-Next a été créé avec une nouvelle architecture de modèle, Qwen3-Next, partant du principe que l'augmentation de la taille de la fenêtre de contexte et du nombre de paramètres constituent deux tendances majeures pour l'avenir des grands modèles. Qwen3-Next introduit plusieurs améliorations clés par rapport à l'architecture Qwen3 : un mécanisme d'attention hybride, une structure de mélange d'experts très clairsemée, des optimisations favorisant la stabilité de l'entraînement et un mécanisme de prédiction multi-jetons pour une inférence plus rapide. Un modèle comportant 80 milliards de paramètres au total, dont 3 milliards de paramètres actifs, a été créé à partir de l'architecture Qwen3-Next. Le modèle Qwen3-Next offre des performances comparables, voire supérieures dans certains cas, à celles de Qwen3-32b, tout en consommant moins de 10 % de son coût d'entraînement. En inférence, notamment avec des contextes de plus de 32 000 jetons, son débit est plus de 10 fois supérieur. Qwen3.5 utilise une version améliorée de l'architecture Qwen3-Next[35].
Le 22 septembre 2025, Qwen3-Omni a été publié sous la licence Apache 2.0 et mis à disposition via chat.qwen.ai, ainsi que sur des plateformes telles que Hugging Face et Model Scope. Qwen3-Omni est un modèle mixte/multimodal capable de traiter du texte, des images, de l'audio et de la vidéo, et de fournir des réponses en temps réel, à la fois textuelles et vocales[36].