


Comment construire des systèmes de chiffon et des agents de l'IA avec QWEN3
Qwen vient de publier 8 nouveaux modèles dans le cadre de sa dernière famille - Qwen3, présentant des capacités prometteuses. Le modèle phare, QWEN3-235B-A22B, a surpassé la plupart des autres modèles, notamment Deepseek-R1, Openai, O1, O3-Mini, Grok 3 et Gemini 2.5-Pro, dans des références standard. Pendant ce temps, le petit QWEN3-30B-A3B a surpassé le QWQ-32B qui a environ 10 fois les paramètres activés comme nouveau modèle. Avec ces capacités avancées, ces modèles s'avèrent être un excellent choix pour un large éventail d'applications. Dans cet article, nous explorerons les caractéristiques de tous les modèles QWEN3 et apprendrons à les utiliser pour construire des systèmes de chiffon et des agents d'IA.
Table des matières
- Qu'est-ce que Qwen3?
- Caractéristiques clés de Qwen3
- Comment accéder aux modèles QWEN3 via API
- Utilisation de Qwen3 pour alimenter vos solutions AI
- Condition préalable
- Construire un agent d'IA à l'aide de Qwen3
- Construire un système de chiffon à l'aide de Qwen3
- Applications de Qwen3
- Conclusion
- Questions fréquemment posées
Qu'est-ce que Qwen3?
Qwen3 est la dernière série de modèles de grande langue (LLMS) dans la famille Qwen, composé de 8 modèles différents. Il s'agit notamment de QWEN3-235B-A22B, QWEN3-30B-A3B, QWEN3-32B, QWEN3-14B, QWEN3-8B, QWEN3-4B, QWEN3-1.7B et QWEN3-0.6B. Tous ces modèles sont publiés sous la licence Apache 2.0, ce qui les rend gratuitement à la disposition des individus, des développeurs et des entreprises.
Alors que 6 de ces modèles sont denses, ce qui signifie qu'ils utilisent activement tous les paramètres pendant la période d'inférence et de formation, 2 d'entre eux sont à l'ouverture:
- QWEN3-235B-A22B: un grand modèle avec 235 milliards de paramètres, dont 22 milliards sont des paramètres activés.
- QWEN3-30B-A3B: un MOE plus petit avec 30 milliards de paramètres totaux et 3 milliards de paramètres activés.
Voici une comparaison détaillée de tous les 8 modèles QWEN3:
Modèles | Couches | Têtes (q / kv) | Cravate | Durée du contexte |
Qwen3-0.6b | 28 | 16/8 | Oui | 32k |
Qwen3-1.7b | 28 | 16/8 | Oui | 32k |
Qwen3-4b | 36 | 32/8 | Oui | 32k |
Qwen3-8b | 36 | 32/8 | Non | 128K |
Qwen3-14b | 40 | 40/8 | Non | 128K |
Qwen3-32b | 64 | 64/8 | Non | 128K |
QWEN3-30B-A3B | 48 | 32/4 | Non | 128K |
QWEN3-235B-A22B | 94 | 64/4 | Non | 128K |
Voici ce que dit la table:
- Couches: Les couches représentent le nombre de blocs de transformateurs utilisés. Il comprend un mécanisme d'auto-atténuation multiples, des réseaux à l'avance des aliments, un codage positionnel, une normalisation de la couche et des connexions résiduelles. Ainsi, lorsque je dis que QWEN3-30B-A3B a 48 couches, cela signifie que le modèle utilise 48 blocs de transformateurs, empilés séquentiellement ou en parallèle.
- Têtes: Les transformateurs utilisent une attention multiples, ce qui divise son mécanisme d'attention en plusieurs têtes, chacune pour apprendre un nouvel aspect à partir des données. Ici, Q / KV représente:
- Q (têtes de requête): Nombre total de têtes d'attention utilisées pour générer des requêtes.
- KV (clé et valeur): le nombre de têtes de clé / valeur par bloc d'attention.
Remarque: Ces têtes d'attention pour la clé, la requête et la valeur sont complètement différentes de la clé, de la requête et du vecteur de valeur généré par une auto-attention.
Lire aussi: Modèles Qwen3: Comment accéder, performances, fonctionnalités et applications
Caractéristiques clés de Qwen3
Voici quelques-unes des principales caractéristiques des modèles QWEN3:
- Pré-formation: le processus de pré-formation se compose de trois étapes:
- Dans la première étape, le modèle a été pré-entraîné sur plus de 30 billions de jetons avec une longueur de contexte de jetons 4K. Cela a enseigné les compétences linguistiques de base du modèle et les connaissances générales.
- Dans la deuxième étape, la qualité des données a été améliorée en augmentant la proportion de données à forte intensité de connaissances comme les tâches STEM, codage et raisonnement. Le modèle a ensuite été formé sur 5 billions de jetons supplémentaires.
- Dans le stade final, des données de contexte long de haute qualité ont été utilisées en augmentant la longueur du contexte à 32k jetons. Cela a été fait pour garantir que le modèle peut gérer efficacement les entrées plus longues.
- Après la formation: Pour développer un modèle hybride capable à la fois d'un raisonnement étape par étape et de réponses rapides, un pipeline de formation en 4 étapes a été mis en œuvre. Cela consistait à:
- Longue chaîne de réflexion (COT)
- Apprentissage du renforcement basé sur le raisonnement (RL)
- Fusion de mode de réflexion
- RL général
- Modes de pensée hybride: les modèles QWEN3 utilisent une approche hybride pour la résolution de problèmes, avec deux nouveaux modes:
- Mode de réflexion: Dans ce mode, les modèles prennent du temps en divisant une déclaration de problème complexe en étapes petites et procédurales pour la résoudre.
- Mode non pensant: dans ce mode, le modèle fournit des résultats rapides et convient principalement à des questions plus simples.
- Prise en charge multilingue: les modèles QWEN3 prennent en charge 119 langues et dialectes. Cela aide les utilisateurs du monde entier à bénéficier de ces modèles.
- Capacités agentiques improvisées: QWEN a optimisé les modèles QWEN3 pour de meilleures capacités de codage et d'agence, le protocole de contexte de modèle de support (MCP).
Comment accéder aux modèles QWEN3 via API
Pour utiliser les modèles QWEN3, nous y accéderons via l'API à l'aide de l'API OpenRouter. Voici comment le faire:
- Créez un compte sur OpenRouter et accédez à la barre de recherche de modèle pour trouver l'API pour ce modèle.
- Sélectionnez le modèle de votre choix et cliquez sur «Créer une clé API» sur la page de destination pour générer une nouvelle API.
Utilisation de Qwen3 pour alimenter vos solutions AI
Dans cette section, nous passerons par le processus de création d'applications d'IA à l'aide de QWEN3. Nous allons d'abord créer un agent de planificateur de voyage alimenté en AI utilisant le modèle, puis un bot de chiffon Q / A utilisant Langchain.
Condition préalable
Avant de construire des solutions d'IA du monde réel avec Qwen3, nous devons d'abord couvrir les conditions de base comme:
- Familiarité avec l'invite de commande ou le terminal et la possibilité de les exécuter via le terminal.
- Capacité à configurer des variables d'environnement.
- Python doit être installé: https://www.python.org/downloads/
- Connaissances sur les bases de Langchain: https://www.langchain.com/
Construire un agent d'IA à l'aide de Qwen3
Dans cette section, nous utiliserons Qwen3 pour créer un agent de voyage alimenté par l'IA qui donnera les principaux places de voyage pour la ville ou l'endroit que vous visitez. Nous permettons également à l'agent de rechercher sur Internet pour trouver des informations mises à jour et ajouter un outil qui permet la conversion de devises.
Étape 1: Configuration des bibliothèques et des outils
Tout d'abord, nous installerons et importerons les bibliothèques et outils nécessaires nécessaires pour créer l'agent.
! PIP installer Langchain Langchain-Community Openai Duckduckgo-Search De Langchain.chat_models importent Chatopenai à partir de Langchain.agents Import Tool de Langchain.tools Import DuckDuckgosearchrun de Langchain.agents Import Initialize_agent llm = chatopenai ( base_url = "https://openrouter.ai/api/v1", api_key = "your_api_key", Model = "Qwen / Qwen3-235B-A22B: gratuit" ) # Outil de recherche Web Search = DuckDuckGosearchRun () # Outil pour DestinationAgentnt Def Get_Destinations (destination): return search.run (f "Top 3 des spots touristiques dans {Destination}") DestinationTool = Tool ( name = "destination recommandeur", func = get_destinations, Description = "Finds les meilleurs endroits à visiter dans une ville" ) # Outil pour les devises def convert_usd_to_inr (requête): quantité = [float (s) pour s dans query.split () si s.replace ('.', '', 1) .isdigit ()] Si le montant: return f "{montant [0]} usd = {montant [0] * 83.2: .2f} inr" retourner "ne pouvait pas analyser le montant." CurrencyTool = Tool ( name = "Convertisseur de devises", func = convert_usd_to_inr, Description = "Converties USD en INR en fonction du taux statique" )
- Search_tool: DuckDuckGosearchrun () permet à l'agent d'utiliser la recherche Web pour obtenir des informations en temps réel sur les spots touristiques populaires.
- DestinationTool: applique la fonction get_destinations (), qui utilise l'outil de recherche pour obtenir les 3 meilleurs spots touristiques dans une ville donnée.
- CurrencyTool: utilise la fonction convert_usd_to_inr () pour convertir les prix de l'USD en INR. Vous pouvez modifier «INR» dans la fonction pour le convertir en une devise de votre choix.
Lire aussi: Construisez un chatbot assistant de voyage avec HuggingFace, Langchain et Mistralai
Étape 2: Création de l'agent
Maintenant que nous avons initialisé tous les outils, procédons à la création d'un agent qui utilisera les outils et nous donnera un plan pour le voyage.
outils = [DestinationTool, CurrencyTool] agent = initialize_agent ( outils = outils, llm = llm, agent_type = "zéro-shot-react-description", Verbose = vrai ) DEF TRIP_PLANNER (CITY, USD_BUDGET): dest = get_destinations (ville) INR_BUDGET = CONVERT_USD_TO_INR (F "{USD_BUDGET} USD à INR") Retour f "" "Voici votre plan de voyage: * Top Spots dans {City} *: {dest} *Budget*: {INR_BUDGET} Profitez de votre excursion d'une journée! "" "
- Initialize_agent: cette fonction crée un agent avec Langchain en utilisant une approche de réaction zéro-shot, qui permet à l'agent de comprendre les descriptions d'outils.
- Agent_Type: «Zero-shot-react-description» permet à l'agent LLM de décider de quel outil il doit utiliser dans une certaine situation sans connaissance préalable, en utilisant la description et l'entrée de l'outil.
- Verbose: Verbose permet la journalisation du processus de réflexion de l'agent, afin que nous puissions surveiller chaque décision que l'agent prend, y compris toutes les interactions et outils invoqués.
- TRIP_PLANNER: Il s'agit d'une fonction Python qui appelle manuellement des outils au lieu de compter sur l'agent. Il permet à l'utilisateur de sélectionner le meilleur outil pour un problème particulier.
Étape 3: Initialisation de l'agent
Dans cette section, nous initialiserons l'agent et observerons sa réponse.
# Initialiser l'agent City = "Delhi" USD_BUDGET = 8500 # Exécutez le planificateur multi-agents réponse = agent.run (f "Planifier une excursion d'une journée à {City} avec un budget de {USD_BUDGET} USD") à partir d'Ipython.Display Import Markdown, affichage Affichage (Markdown (réponse))
- Invocation de l'agent: agent.run () utilise l'intention de l'utilisateur via l'invite et prévoit le voyage.
Sortir
Construire un système de chiffon à l'aide de Qwen3
Dans cette section, nous créerons un bot de chiffon qui répond à toute requête dans le document d'entrée pertinent de la base de connaissances. Cela donne une réponse informative en utilisant QWEN / QWEN3-235B-A22B. Le système utiliserait également Langchain, pour produire des réponses précises et consacrées au contexte.
Étape 1: Configuration des bibliothèques et des outils
Tout d'abord, nous installerons et importerons les bibliothèques et outils nécessaires nécessaires pour créer le système de chiffon.
! Pip installer Langchain Langchain-Community Langchain-Core Openai Tiktoken Chromadb Transformateurs de phrase Duckduckgo-Search à partir de Langchain_community.Document_loaders Importer Textloader à partir de Langchain.Text_Splitter Importer le caractères De Langchain_community.VectorStores Import Chrom De Langchain.embeddings Import HuggingFaceMedddings De Langchain.Chains Import Retrievalqa De Langchain.chat_models importent Chatopenai # Chargez votre document Loader = Textloader ("/ Content / my_docs.txt") docs = loder.load ()
- Documents de chargement: la classe «Textloader» de Langchain charge le document comme un fichier PDF, TXT ou DOC qui sera utilisé pour la récupération Q / A. Ici, j'ai téléchargé my_docs.txt.
- Sélection de la configuration du vecteur: J'ai utilisé ChromAdB pour stocker et rechercher les intégres dans notre base de données vectorielle pour le processus Q / A.
Étape 2: Création des intérêts
Maintenant que nous avons chargé notre document, procédons à la création d'incorporation, ce qui aidera à atténuer le processus de récupération.
# Split en morceaux Splitter = CaractTextStSlitter (Chunk_Size = 300, Chunk_overlap = 50) Chunks = Splitter.Split_Documents (Docs) # ENCHED avec un modèle HuggingFace Embeddings = HuggingFaceMedDings (Model_Name = "All-Minilm-L6-V2") db = chroma.from_documents (morceaux, intégration = intégres) # Configuration Qwen LLM d'OpenRouter llm = chatopenai ( base_url = "https://openrouter.ai/api/v1", api_key = "your_api_key", Model = "Qwen / Qwen3-235B-A22B: gratuit" ) # Créer une chaîne de chiffon retriever = db.as_retriever (search_kwargs = {"k": 2}) rag_chain = retrievalqa.from_chain_type (llm = llm, retriever = retriever)
- Diffusion de documents: le personnageTextSsplitter () divise le texte en morceaux plus petits, ce qui aidera principalement en deux choses. Tout d'abord, il facilite le processus de récupération, et deuxièmement, il aide à conserver le contexte de la partie précédente via Chunk_overlap.
- Documents d'incorporation: les intégres convertissent le texte en vecteurs d'incorporation d'une dimension définie pour chaque jeton. Ici, nous avons utilisé Chunk_Size de 300, ce qui signifie que chaque mot / jeton sera converti en un vecteur de 300 dimensions. Maintenant, ce vecteur incorporera toutes les informations contextuelles de ce mot par rapport aux autres mots du morceau.
- Chaîne de chiffon: la chaîne de chiffon combine le chromadb avec le LLM pour former un chiffon. Cela nous permet d'obtenir des réponses contextuellement conscientes du document ainsi que du modèle.
Étape 3: Initialisation du système de chiffon
# Posez une question réponse = rag_chain.invoke ({"Query": "Comment puis-je utiliser Qwen avec MCP. Veuillez me donner un guide pas à pas avec les extraits de code nécessaires"}) affichage (Markdown (réponse ['résultat']))
- Exécution de la requête: La méthode RAG_CHAIN_INVOKE () enverra la requête de l'utilisateur au système RAG, qui récupère ensuite les morceaux pertinents de contexte de la boutique de documents (Vector DB) et génère une réponse contextuelle.
Sortir
Vous pouvez trouver le code complet ici.
Applications de Qwen3
Voici quelques autres applications de Qwen3 dans toutes les industries:
- Codage automatisé: Qwen3 peut générer, déboguer et fournir une documentation pour le code, ce qui aide les développeurs à résoudre les erreurs sans effort manuel. Son modèle de paramètres 22B excelle dans le codage, avec des performances comparables à des modèles comme Deepseek-R1, Gemini 2.5 Pro et O3-MinI d'OpenAI.
- Éducation et recherche: Qwen3 archite la haute précision en mathématiques, en physique et en résolution de problèmes de raisonnement logique. Il rivalise également avec le Gemini 2.5 Pro, tout en excelle avec des modèles tels que Openai O1, O3-Mini, Deepseek-R1 et Grok 3 Beta.
- Intégration d'outils basée sur l'agent: Qwen3 mène également dans les tâches d'agent AI en permettant l'utilisation d'outils externes, d'API et de MCP pour les flux de travail multi-étapes et multi-agents avec son modèle d'appel d'outils, ce qui simplifie encore l'interaction agentique.
- Tâches de raisonnement avancé: QWEN3 utilise une grande capacité de réflexion pour fournir des réponses optimales et précises. Le modèle utilise un raisonnement en chaîne de pensées pour des tâches complexes et un mode non pensant pour une vitesse optimisée.
Conclusion
Dans cet article, nous avons appris à construire des systèmes d'IA et de chiffon agentiques alimentés par QWEN3. Les performances élevées de QWEN3, le support multilingue et la capacité de raisonnement avancé en font un choix fort pour la récupération des connaissances et les tâches basées sur les agents. En intégrant Qwen3 dans des ragas et des pipelines agentiques, nous pouvons obtenir des réponses précises, respectueuses de contextes et lisses, ce qui en fait un concurrent solide pour les applications du monde réel pour les systèmes alimentés par l'IA.
Questions fréquemment posées
Q1. En quoi Qwen3 diffère-t-il des autres LLM pour le chiffon?A. Qwen3 a une capacité de raisonnement hybride qui lui permet d'apporter des changements dynamiques dans les réponses, ce qui lui permet d'optimiser les flux de travail de chiffon pour la récupération et l'analyse complexe.
Q2. Quels sont les outils nécessaires pour intégrer le chiffon?A. Il comprend principalement la base de données vectorielle, les modèles d'intégration, le flux de travail Langchain et une API pour accéder au modèle.
Q3. Qwen3 peut-il autoriser le chaînage d'outils multi-étapes dans le flux de travail de l'agent?Oui, avec les modèles d'appel d'outils intégrés Qwen-Agent, nous pouvons analyser et activer les opérations d'outils séquentielles comme la recherche Web, l'analyse des données et la génération de rapports.
Q4. Comment réduire la latence dans les réponses des agents QWEN3? A. On peut réduire la latence à bien des égards, certains d'entre eux sont:
1. Utilisation de modèles MOE comme QWEN3-30B-A3B, qui n'ont que 3 milliards de paramètres actifs.
2. En utilisant des inférences optimisées au GPU.
A. L'erreur commune comprend:
1. Échecs d'initialisation du serveur MCP, comme JSON Formatting et init.
2. Erreurs d'appariement de la réponse à l'outil.
3. Débordement de fenêtre de contexte.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds











Tout en travaillant sur une IA agentique, les développeurs se retrouvent souvent à naviguer dans les compromis entre la vitesse, la flexibilité et l'efficacité des ressources. J'ai exploré le cadre de l'IA agentique et je suis tombé sur Agno (plus tôt c'était Phi-

Instruction ALTER TABLE de SQL: Ajout de colonnes dynamiquement à votre base de données Dans la gestion des données, l'adaptabilité de SQL est cruciale. Besoin d'ajuster votre structure de base de données à la volée? L'énoncé de la table alter est votre solution. Ce guide détaille l'ajout de Colu

La version comprend trois modèles distincts, GPT-4.1, GPT-4.1 Mini et GPT-4.1 Nano, signalant une évolution vers des optimisations spécifiques à la tâche dans le paysage du modèle grand langage. Ces modèles ne remplacent pas immédiatement les interfaces orientées utilisateur comme

Déverrouiller la puissance des modèles d'intégration: une plongée profonde dans le nouveau cours d'Andrew Ng Imaginez un avenir où les machines comprennent et répondent à vos questions avec une précision parfaite. Ce n'est pas de la science-fiction; Grâce aux progrès de l'IA, cela devient un R

Simuler les lancements de fusée avec Rocketpy: un guide complet Cet article vous guide à travers la simulation des lancements de fusées haute puissance à l'aide de Rocketpy, une puissante bibliothèque Python. Nous couvrirons tout, de la définition de composants de fusée à l'analyse de Simula

Gemini comme fondement de la stratégie d'IA de Google Gemini est la pierre angulaire de la stratégie d'agent AI de Google, tirant parti de ses capacités multimodales avancées pour traiter et générer des réponses à travers le texte, les images, l'audio, la vidéo et le code. Développé par Deepm

"Super heureux d'annoncer que nous acquérons une robotique de pollen pour amener les robots open source au monde", a déclaré Hugging Face sur X. "Depuis que Remi Cadene nous a rejoints de Tesla, nous sommes devenus la plate-forme logicielle la plus utilisée pour la robotique ouverte grâce à des remerciements grâce à des remerciements grâce à des remerciements à une robotique ouverte grâce à des remerciements à des remerciements à des remerciements à la robotique ouverte grâce à des remerciements à Gérom

Dans un développement significatif pour la communauté de l'IA, Agetica et ensemble AI ont publié un modèle de codage d'IA open source nommé Deepcoder-14b. Offrir des capacités de génération de code à égalité avec des concurrents à source fermée comme OpenAI
