Wie man Lag -Systeme und KI -Agenten mit QWEN3 baut
Qwen hat gerade 8 neue Modelle im Rahmen seiner neuesten Familie veröffentlicht - QWEN3, die vielversprechende Fähigkeiten präsentiert. Das Flaggschiff-Modell QWEN3-235B-A22B übertraf die meisten anderen Modelle, darunter Deepseek-R1, OpenAs O1, O3-Mini, GROK 3 und Gemini 2,5-PRO, in Standard-Benchmarks. In der Zwischenzeit übertraf der kleine QWEN3-30B-A3B QWQ-32B, das ungefähr das 10-fache der aktivierten Parameter als neues Modell aufweist. Mit solchen fortschrittlichen Funktionen erweisen sich diese Modelle als eine gute Wahl für eine breite Palette von Anwendungen. In diesem Artikel werden wir die Merkmale aller QWEN3 -Modelle untersuchen und lernen, wie Sie sie verwenden, um Lappensysteme und KI -Agenten zu erstellen.
Inhaltsverzeichnis
- Was ist Qwen3?
- Schlüsselmerkmale von QWEN3
- So greifen Sie über API auf QWEN3 -Modelle zu
- Verwenden Sie QWEN3, um Ihre KI -Lösungen zu betreiben
- Voraussetzungen
- Aufbau eines AI -Agenten mit QWEN3
- Aufbau eines Lappensystems mit QWEN3
- Anwendungen von Qwen3
- Abschluss
- Häufig gestellte Fragen
Was ist Qwen3?
QWEN3 ist die neueste Serie von Großsprachemodellen (LLMs) in der QWEN -Familie, die aus 8 verschiedenen Modellen besteht. Dazu gehören QWEN3-235B-A22B, QWEN3-30B-A3B, QWEN3-32B, QWEN3-14B, QWEN3-8B, QWEN3-4B, QWEN3-1.7B und QWEN3-0.6B. Alle diese Modelle werden unter Apache 2.0 -Lizenz veröffentlicht, wodurch sie Einzelpersonen, Entwicklern und Unternehmen frei zur Verfügung stellen.
Während 6 dieser Modelle dicht sind, bedeutet dies, dass sie während der Zeit der Inferenz und des Trainings alle Parameter aktiv verwenden, 2 von ihnen sind offen gewichtet:
- QWEN3-235B-A22B: Ein großes Modell mit 235 Milliarden Parametern, von denen 22 Milliarden aktivierte Parameter sind.
- QWEN3-30B-A3B: Eine kleinere MOE mit 30 Milliarden Gesamtparametern und 3 Milliarden aktivierten Parametern.
Hier ist ein detaillierter Vergleich aller 8 QWEN3 -Modelle:
Modelle | Schichten | Köpfe (Q/KV) | Krawattenbettung | Kontextlänge |
Qwen3-0.6b | 28 | 16/8 | Ja | 32k |
Qwen3-1.7b | 28 | 16/8 | Ja | 32k |
Qwen3-4b | 36 | 32/8 | Ja | 32k |
Qwen3-8b | 36 | 32/8 | NEIN | 128K |
Qwen3-14b | 40 | 40/8 | NEIN | 128K |
QWEN3-32B | 64 | 64/8 | NEIN | 128K |
QWEN3-30B-A3B | 48 | 32/4 | NEIN | 128K |
QWEN3-235B-A22B | 94 | 64/4 | NEIN | 128K |
Hier ist, was der Tisch sagt:
- Ebenen: Schichten repräsentieren die Anzahl der verwendeten Transformatorblöcke. Es umfasst mehrkopf Selbstbekämpfungsmechanismus, Vorwärtsnetzwerke, positionelle Codierung, Schichtnormalisierung und Restverbindungen. Wenn ich also sage, dass QWEN3-30B-A3B 48 Schichten hat, bedeutet dies, dass das Modell 48 Transformatorblöcke verwendet, die nacheinander oder parallel gestapelt sind.
- Köpfe: Transformatoren verwenden mehrköpfige Aufmerksamkeit, die seinen Aufmerksamkeitsmechanismus in mehrere Köpfe aufteilt, jeweils ein neues Aspekt aus den Daten. Hier repräsentiert Q/KV:
- Q (Abfrageköpfe): Gesamtzahl der Aufmerksamkeitsköpfe, die zum Generieren von Abfragen verwendet werden.
- KV (Schlüssel und Wert): Die Anzahl der Schlüssel-/Wertköpfe pro Aufmerksamkeitsblock.
HINWEIS: Diese Aufmerksamkeitsköpfe für Schlüssel, Abfrage und Wert unterscheiden sich völlig von der Schlüssel-, Abfrage- und Wertvektor, die durch eine Selbstbekämpfung erzeugt werden.
Lesen Sie auch: QWEN3 -Modelle: Wie man zugreift, Leistung, Funktionen und Anwendungen
Schlüsselmerkmale von QWEN3
Hier sind einige der wichtigsten Merkmale der QWEN3 -Modelle:
- Vorausbildung: Der Prozess vor dem Training besteht aus drei Stufen:
- In der ersten Stufe wurde das Modell auf über 30 Billionen Token mit einer Kontextlänge von 4K -Token vorbereitet. Dies lehrte das Modell grundlegende Sprachkenntnisse und allgemeine Kenntnisse.
- In der zweiten Stufe wurde die Datenqualität verbessert, indem der Anteil wissenintensiver Daten wie STEM, Codierung und Argumentationsaufgaben erhöht wurde. Das Modell wurde dann über weitere 5 Billionen Token trainiert.
- In der letzten Phase wurden hochwertige Langkontextdaten verwendet, indem die Kontextlänge auf 32 -km -Token erhöht wurde. Dies wurde durchgeführt, um sicherzustellen, dass das Modell längere Eingaben effektiv verarbeiten kann.
- Nach der Schulung: Um ein Hybridmodell zu entwickeln, das sowohl schrittweise Argumentation als auch schnelle Reaktionen in der Lage ist, wurde eine 4-stufige Trainingspipeline implementiert. Dies bestand aus:
- Langkette des Gedanke (COT)
- Argumentationsbasierte Verstärkungslernen (RL)
- Denkmodus Fusion
- General Rl
- Hybrid -Denkmodi: QWEN3 -Modelle verwenden einen Hybridansatz zur Problemlösung mit zwei neuen Modi:
- Denkmodus: In diesem Modus nehmen die Modelle Zeit, indem sie eine komplexe Problemaussage in kleine und prozedurale Schritte einteilen, um sie zu lösen.
- Nichtdenkungsmodus: In diesem Modus liefert das Modell schnelle Ergebnisse und eignet sich meistens für einfachere Fragen.
- Mehrsprachige Unterstützung: QWEN3 -Modelle unterstützen 119 Sprachen und Dialekte. Dies hilft Benutzern aus der ganzen Welt, von diesen Modellen zu profitieren.
- Improvisierte Agentenfunktionen: QWEN hat die QWEN3 -Modelle für bessere Codierung und Agentenfunktionen optimiert und das Modellkontextprotokoll (MCP) unterstützt.
So greifen Sie über API auf QWEN3 -Modelle zu
Um die QWEN3 -Modelle zu verwenden, werden wir über API mit der OpenRouter -API darauf zugreifen. Hier erfahren Sie, wie es geht:
- Erstellen Sie ein Konto auf OpenRouter und gehen Sie in die Modellsuchleiste, um die API für dieses Modell zu finden.
- Wählen Sie das Modell Ihrer Wahl und klicken Sie auf der Zielseite auf "API -Taste erstellen", um eine neue API zu generieren.
Verwenden Sie QWEN3, um Ihre KI -Lösungen zu betreiben
In diesem Abschnitt werden wir mit QWEN3 den Prozess des Erstellens von AI -Anwendungen durchlaufen. Wir werden zuerst ein AI-Anbieter-Reiseplaner-Agent mit dem Modell erstellen, und dann einen Q/A-Rag-Bot mit Langchain.
Voraussetzungen
Bevor wir einige reale KI-Lösungen mit QWEN3 erstellen, müssen wir zunächst die grundlegenden Voraussetzungen wie folgt abdecken:
- Vertrautheit mit der Eingabeaufforderung oder dem Terminal und der Fähigkeit, sie durch das Terminal zu führen.
- Fähigkeit, Umgebungsvariablen einzurichten.
- Python muss installiert werden: https://www.python.org/downloads/
- Wissen über die Grundlagen von Langchain: https://www.langchain.com/
Aufbau eines AI -Agenten mit QWEN3
In diesem Abschnitt werden wir QWEN3 verwenden, um ein AI-angetriebenes Reisebüro zu erstellen, das die wichtigsten Reiseplätze für die Stadt oder den Ort, den Sie besuchen, angeben. Wir ermöglichen es dem Agenten auch, das Internet zu durchsuchen, um aktualisierte Informationen zu finden und ein Tool hinzuzufügen, das die Währungskonvertierung ermöglicht.
Schritt 1: Einrichten von Bibliotheken und Tools
Zunächst werden wir die erforderlichen Bibliotheken und Tools installieren und importieren, die zum Erstellen des Agenten erforderlich sind.
! von Langchain.chat_Models importieren Sie Chatopenai aus Langchain.agents Import -Tool von Langchain.tools Import DuckDuckGoSearchrun importieren von Langchain.agents import initialize_agent llm = chatopenai ( Base_url = "https://openrouter.ai/api/v1", api_key = "your_api_key", Modell = "Qwen/Qwen3-235b-A22B: Free" ) # Web -Search -Tool search = DuckDuckGoSearchRun () # Tool für DestinationAgent Def get_destinations (Ziel): return search.run (f "Top 3 Touristenplätze in {destination}") DestinationTool = Tool ( name = "Ziel empfohlen", func = get_destinations, BESCHREIBUNG = "Findet Top -Orte in einer Stadt zu besuchen" ) # Tool für Currencyagent Def convert_usd_to_inr (Abfrage): Menge = [float (s) für s in query.split () if S.Replace ('.', '', 1) .isdigit ()]] Wenn Betrag: Rückgabe f "{Menge [0]} USD = {Menge [0] * 83.2: .2f} INR" Return "konnte nicht analysieren." CurrencyTool = Tool ( name = "Währungswandler", func = convert_usd_to_inr, Beschreibung = "Konvertiert USD in INR basierend auf der statischen Rate" )
- Search_tool: DuckDuckGoSearchrun () ermöglicht es dem Agenten, mit der Websuche Informationen über die beliebten Touristenplätze zu erhalten.
- DestinationTool: Wendet die Funktion get_destinations () an, die das Suchwerkzeug verwendet, um die Top 3 Touristenplätze in einer bestimmten Stadt zu erhalten.
- CurrencyTool: Verwendet die Funktion convert_usd_to_inr (), um die Preise von USD in INR zu konvertieren. Sie können 'INR' in der Funktion ändern, um sie in eine Währung Ihrer Wahl umzuwandeln.
Lesen Sie auch: Erstellen Sie einen Reiseassistenten Chatbot mit Huggingface, Langchain und Mistralai
Schritt 2: Erstellen des Agenten
Nachdem wir alle Tools initialisiert haben, gehen wir mit dem Erstellen eines Agenten, der die Tools verwendet und uns einen Plan für die Reise ermöglichen.
Tools = [DestinationTool, CurrencyTool] Agent = initialize_agent ( Werkzeuge = Werkzeuge, llm = llm, Agent_type = "Zero-Shot-React-Dezescription", wörtlich = wahr ) Def Trip_Planner (Stadt, USD_Budget): dest = get_destinations (Stadt) INR_BUDGET = CONVERT_USD_TO_INR (f "{USD_BUDGET} USD TO INR")) Rückkehr f "" "Hier ist Ihr Reiseplan: *Top -Plätze in {City}*: {dest} *Budget*: {inr_budget} Genieße deinen Tagesausflug! "" "
- Initialize_agent: Diese Funktion erstellt einen Agenten mit Langchain mit einem Null-Shot-Reaktionsansatz, mit dem der Agent die Toolbeschreibungen verstehen kann.
- Agent_type: "Zero-Shot-React-Dezescription" ermöglicht es dem Agent LLM, zu entscheiden, welches Tool es in einer bestimmten Situation ohne Vorwissen verwenden soll, indem sie die Beschreibung und die Eingabe verwenden.
- Ausführlich: Ausführlich ermöglicht die Protokollierung des Denkprozesses des Agenten, sodass wir jede Entscheidung überwachen können, die der Agent trifft, einschließlich aller Interaktionen und Tools, die aufgerufen werden.
- TRIP_PLANNER: Dies ist eine Python -Funktion, die Tools manuell aufruft, anstatt sich auf den Agenten zu verlassen. Damit kann der Benutzer das beste Tool für ein bestimmtes Problem auswählen.
Schritt 3: Initialisierung des Agenten
In diesem Abschnitt werden wir den Agenten initialisieren und seine Antwort beobachten.
# Initialisieren Sie den Agenten City = "Delhi" USD_BUDGET = 8500 # Führen Sie den Multi-Agent-Planer aus response = Agent.run (f "Planen Sie eine Tagesausreise nach {City} mit einem Budget von {USD_BUDGET} USD")) Aus Ipython.display Import Markdown, Anzeige Anzeige (Markdown (Antwort))
- Aufruf von Agent: Agent.Run () verwendet die Absicht des Benutzers über Eingabeaufforderung und plant die Reise.
Ausgabe
Aufbau eines Lappensystems mit QWEN3
In diesem Abschnitt werden wir einen Rag -Bot erstellen, der jede Abfrage innerhalb des entsprechenden Eingabedokuments aus der Wissensbasis beantwortet. Dies gibt eine informative Antwort unter Verwendung von QWEN/QWEN3-235B-A22B. Das System würde auch Langchain verwenden, um genaue und kontextbezogene Antworten zu erzeugen.
Schritt 1: Einrichten der Bibliotheken und Tools
Zunächst werden wir die erforderlichen Bibliotheken und Tools installieren und importieren, die zum Erstellen des Lappensystems erforderlich sind.
! von Langchain_Community.document_loaders Textloader importieren von Langchain.text_splitter importieren charaktertextsplitter von Langchain_Community.VectorStores importieren Chroma von Langchain.embeddings Import HuggingfaceEmbedingdings von Langchain.chains Import Retrievalqa von Langchain.chat_Models importieren Sie Chatopenai # Laden Sie Ihr Dokument auf loader = textloader ("/content/my_docs.txt") docs = lader.load ()
- Laden von Dokumenten: Die Langchain -Klasse „Textloader“ lädt das Dokument wie eine PDF-, TXT- oder DOC -Datei, die für das q/a -Abruf verwendet wird. Hier habe ich my_docs.txt hochgeladen.
- Auswählen des Vektor -Setups: Ich habe Chromadb verwendet, um die Einbettungen aus unserer Vektor -Datenbank für den Q/A -Prozess zu speichern und zu durchsuchen.
Schritt 2: Erstellen der Einbettungen
Nachdem wir unser Dokument geladen haben, gehen wir mit dem Erstellen von Einbettungen daraus, was dazu beiträgt, den Abrufprozess zu lindern.
# In Stücke aufgeteilt splitter = charakterTextsplitter (chunk_size = 300, chunk_overlap = 50) thunks = splitter.split_documents (docs) # Mit dem Umarmungsface -Modell einbetten embettdings = huggingfaceembeddings (model_name = "All-minilm-l6-v2") db = chroma.from_documents (Stücke, Einbettung = Einbettung) # Setup Qwen LLM von OpenRouter aus Setzen llm = chatopenai ( Base_url = "https://openrouter.ai/api/v1", api_key = "your_api_key", Modell = "Qwen/Qwen3-235b-A22B: Free" ) # Erstellen Sie Rag -Kette retriever = db.as_retriever (search_kwargs = {"k": 2}) rag_chain = retrievalqa.from_chain_type (llm = llm, retriever = retriever)
- Dokumentspaltung: Der CharakterTextSplitter () spaltet den Text in kleinere Stücke, was hauptsächlich in zwei Dingen hilft. Erstens erleichtert es den Abrufprozess und zweitens hilft es bei der Beibehaltung des Kontextes vom vorherigen Chunk über Chunk_Overlap.
- Einbettungsdokumente: Einbettungsdings konvertieren den Text in die Einbettungsvektoren einer festgelegten Dimension für jeden Token. Hier haben wir Chunk_Size von 300 verwendet, was bedeutet, dass jedes Wort/Token in einen Vektor von 300 Dimensionen umgewandelt wird. Jetzt hat diese Vektoreinbettung alle kontextuellen Informationen dieses Wortes in Bezug auf die anderen Wörter im Chunk.
- Lappenkette: Lappenkette kombiniert das Chromadb mit dem LLM, um einen Lappen zu bilden. Auf diese Weise können wir kontextbezogene Antworten sowohl aus dem Dokument als auch aus dem Modell erhalten.
Schritt 3: Initialisierung des Lappensystems
# Eine Frage stellen response = rag_chain.invoke ({"query": "Wie kann ich Qwen mit MCP verwenden. Bitte geben Sie mir eine schrittweise Anleitung zusammen mit den erforderlichen Code -Snippets"}) Anzeige (Markdown (Antwort ['Ergebnis']))
- Abfrageausführung: Die Methode rag_chain_invoke () sendet die Abfrage des Benutzers an das RAG-System, das dann die relevanten kontextbewussten Brocken aus dem Dokumentstore (Vector DB) abruft und eine kontextbezogene Antwort generiert.
Ausgabe
Hier finden Sie den vollständigen Code.
Anwendungen von Qwen3
Hier finden Sie einige weitere Anwendungen von QWEN3 in Branchen:
- Automatisierte Codierung: QWEN3 kann Code generieren, debuggen und Dokumentationen bereitstellen, mit denen Entwickler Fehler ohne manuelle Aufwand lösen können. Sein 22B-Parametermodell zeichnet sich in der Codierung aus, wobei die Leistungen mit Modellen wie Deepseek-R1, Gemini 2.5 Pro und Openai's O3-Mini vergleichbar sind.
- Bildung und Forschung: QWEN3 Archiv hohe Genauigkeit in Mathematik, Physik und Problemlösung von Logical Denking. Es ist auch mit dem Gemini 2.5 Pro konkurriert, während es sich mit Modellen wie OpenAs O1, O3-Mini, Deepseek-R1 und GROK 3 Beta auszeichnet.
- Agentenbasierte Tool-Integration: QWEN3 führt auch in AI-Agentenaufgaben an, indem sie die Verwendung externer Tools, APIs und MCPs für mehrstufige und multi-agentische Workflows mit seiner Tool-Calling-Vorlage ermöglichen, was die Agenteninteraktion weiter vereinfacht.
- Erweiterte Argumentationsaufgaben: QWEN3 verwendet eine umfassende Denkfähigkeit, um optimale und genaue Antworten zu liefern. Das Modell verwendet die Kette des Gedächtnisses für komplexe Aufgaben und einen Nicht-Denken-Modus für optimierte Geschwindigkeit.
Abschluss
In diesem Artikel haben wir gelernt, wie man QWEN3-Agenten-KI- und RAG-Systeme baut. Die hohe Leistung, die mehrsprachige Unterstützung und die fortschrittliche Fähigkeit von QWEN3 machen es zu einer starken Wahl für das Abrufen von Wissen und agentenbasierte Aufgaben. Durch die Integration von QWEN3 in RAG- und Agenten-Pipelines können wir genaue, kontextbezogene und reibungslose Antworten erhalten, was es zu einem starken Anwärter auf reale Anwendungen für KI-Antriebssysteme macht.
Häufig gestellte Fragen
Q1. Wie unterscheidet sich QWEN3 von anderen LLMs für LAG?A. QWEN3 verfügt über eine hybride Argumentationsfähigkeit, mit der es dynamische Änderungen in den Antworten vornehmen kann, mit der die RAG -Workflows sowohl für die Abruf- als auch für die komplexe Analyse optimiert werden können.
Q2. Was sind die Werkzeuge, die zur Integration von Lappen benötigt werden?A. Es umfasst hauptsächlich die Vektordatenbank, einbettende Modelle, Langchain -Workflow und eine API, um auf das Modell zuzugreifen.
Q3. Kann QWEN3 das Multisep -Werkzeugketten im Agent -Workflow ermöglichen?Ja, mit den integrierten Templates für integrierte Tools in Qwen-Agent können wir sequentielle Tool-Vorgänge wie Websuche, Datenanalyse und Berichterstellung analysieren und aktivieren.
Q4. Wie kann man die Latenz in QWEN3 -Agentenreaktionen reduzieren? A. Man kann die Latenz in vielerlei Hinsicht verringern, einige von ihnen sind:
1. Verwendung von MOE-Modellen wie QWEN3-30B-A3B, die nur 3 Milliarden aktive Parameter haben.
2. Durch Verwendung von GPU-optimierten Schlussfolgerungen.
A. Der übliche Fehler beinhaltet:
1. MCP Server -Initialisierungsfehler wie JSON -Formatierung und Init.
2. Fehlerpaarungsfehler.
3. Kontextfensterüberlauf.
Das obige ist der detaillierte Inhalt vonWie man Lag -Systeme und KI -Agenten mit QWEN3 baut. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen











Metas Lama 3.2: Ein Sprung nach vorne in der multimodalen und mobilen KI Meta hat kürzlich Lama 3.2 vorgestellt, ein bedeutender Fortschritt in der KI mit leistungsstarken Sichtfunktionen und leichten Textmodellen, die für mobile Geräte optimiert sind. Aufbau auf dem Erfolg o

Hey da, codieren Ninja! Welche Codierungsaufgaben haben Sie für den Tag geplant? Bevor Sie weiter in diesen Blog eintauchen, möchte ich, dass Sie über all Ihre Coding-Leiden nachdenken-die Auflistung auflisten diese auf. Erledigt? - Lassen Sie ’

Die KI -Landschaft dieser Woche: Ein Wirbelsturm von Fortschritten, ethischen Überlegungen und regulatorischen Debatten. Hauptakteure wie OpenAI, Google, Meta und Microsoft haben einen Strom von Updates veröffentlicht, von bahnbrechenden neuen Modellen bis hin zu entscheidenden Verschiebungen in LE

Das jüngste Memo von Shopify -CEO Tobi Lütke erklärt kühn für jeden Mitarbeiter eine grundlegende Erwartung und kennzeichnet eine bedeutende kulturelle Veränderung innerhalb des Unternehmens. Dies ist kein flüchtiger Trend; Es ist ein neues operatives Paradigma, das in P integriert ist

Einführung OpenAI hat sein neues Modell auf der Grundlage der mit Spannung erwarteten „Strawberry“ -Scharchitektur veröffentlicht. Dieses innovative Modell, bekannt als O1

Einführung Stellen Sie sich vor, Sie gehen durch eine Kunstgalerie, umgeben von lebhaften Gemälden und Skulpturen. Was wäre, wenn Sie jedem Stück eine Frage stellen und eine sinnvolle Antwort erhalten könnten? Sie könnten fragen: „Welche Geschichte erzählst du?

Für diejenigen unter Ihnen, die in meiner Kolumne neu sein könnten, erforsche ich allgemein die neuesten Fortschritte in der KI auf dem gesamten Vorstand, einschließlich Themen wie verkörpertes KI, KI-Argumentation, High-Tech

METAs Lama 3.2: Ein multimodales KI -Kraftpaket Das neueste multimodale Modell von META, Lama 3.2, stellt einen erheblichen Fortschritt in der KI dar, das ein verbessertes Sprachverständnis, eine verbesserte Genauigkeit und die überlegenen Funktionen der Textgenerierung bietet. Seine Fähigkeit t
