如何使用qwen3構建抹布系統和AI代理
Qwen剛剛發布了8種新車型,作為其最新家族Qwen3的一部分,展示了有希望的功能。旗艦型號QWEN3-235B-A22B優於其他大多數型號,包括DeepSeek-R1,OpenAi的O1,O3-Mini,Grok 3和Gemini 2.5-Pro,在標準基準測試中。同時,小QWEN3-30B-A3B的表現優於QWQ-32B,其作為新模型的活性參數約為10倍。具有如此高級的功能,這些模型被證明是廣泛應用程序的絕佳選擇。在本文中,我們將探討所有QWEN3模型的功能,並學習如何使用它們來構建抹布系統和AI代理。
目錄
- 什麼是qwen3?
- qwen3的主要特徵
- 如何通過API訪問QWEN3型號
- 使用qwen3為您的AI解決方案供電
- 先決條件
- 使用qwen3構建AI代理
- 使用qwen3構建抹布系統
- Qwen3的應用
- 結論
- 常見問題
什麼是qwen3?
Qwen3是QWEN家族中最新系列的大型語言模型(LLM),由8種不同的模型組成。其中包括QWEN3-235B-A22B,QWEN3-30B-A3B,QWEN3-32B,QWEN3-14B,QWEN3-8B,QWEN3-4B,QWEN3-1.7B和QWEN3-0.6B。所有這些模型均在Apache 2.0許可下發布,使其可向個人,開發人員和企業免費使用。
儘管其中6個模型是密集的,但這意味著它們在推理和培訓期間積極使用所有參數,但其中2個是開放加權的:
- QWEN3-235B-A22B:具有2350億參數的大型模型,其中220億個是激活參數。
- QWEN3-30B-A3B:一個較小的MUE,總參數為30億和30億個激活參數。
這是所有8種QWEN3模型的詳細比較:
型號 | 層 | 頭(Q/KV) | 領帶嵌入 | 上下文長度 |
QWEN3-0.6B | 28 | 16/8 | 是的 | 32K |
qwen3-1.7b | 28 | 16/8 | 是的 | 32K |
qwen3-4b | 36 | 32/8 | 是的 | 32K |
qwen3-8b | 36 | 32/8 | 不 | 128K |
Qwen3-14b | 40 | 40/8 | 不 | 128K |
QWEN3-32B | 64 | 64/8 | 不 | 128K |
QWEN3-30B-A3B | 48 | 32/4 | 不 | 128K |
QWEN3-235B-A22B | 94 | 64/4 | 不 | 128K |
這是桌子所說的:
-
層:圖層表示所使用的變壓器塊的數量。它包括多頭自我發揮機制,飼料向前網絡,位置編碼,層歸一化和剩餘連接。因此,當我說QWEN3-30B-A3B具有48層時,這意味著該模型使用48個變壓器塊,依次或併行堆疊。
-
頭:變形金剛使用多頭注意力,將其註意力機制分為幾個頭部,每個人都從數據中學習新方面。在這裡,Q/KV代表:
- Q(查詢頭):用於生成查詢的注意力頭的總數。
- KV(密鑰和值):每個注意塊的密鑰/值頭的數量。
注意:這些關注,查詢和價值的注意力與自我發揮產生的密鑰,查詢和值向量完全不同。
另請閱讀:QWEN3模型:如何訪問,性能,功能和應用程序
qwen3的主要特徵
以下是QWEN3模型的一些關鍵功能:
-
預訓練:訓練過程包括三個階段:
- 在第一階段,該模型在30萬億個令牌上進行了預測,上下文長度為4K令牌。這教授了模型的基本語言技能和常識。
- 在第二階段,通過增加諸如STEM,編碼和推理任務等知識密集數據的比例來提高數據質量。然後對模型進行了另外5萬億代幣的訓練。
- 在最後階段,通過將上下文長度增加到32K令牌來使用高質量的長上下文數據。這樣做是為了確保模型可以有效處理更長的輸入。
-
訓練後:為了開發能夠逐步推理和快速響應的混合模型,實施了四階段的訓練管道。這包括:
- 長鏈(COT)
- 基於推理的強化學習(RL)
- 思維模式融合
- 一般RL
-
混合思維模式: QWEN3模型採用混合方法來解決問題,具有兩種新模式:
- 思考模式:在這種模式下,模型會花費時間將復雜的問題語句分解為小的程序步驟來解決它。
- 非思想模式:在此模式下,模型提供了快速的結果,並且主要適合簡單的問題。
- 多語言支持: QWEN3模型支持119種語言和方言。這可以幫助來自世界各地的用戶從這些模型中受益。
- 即興代理能力: QWEN優化了QWEN3模型,以提高編碼和代理功能,並支持模型上下文協議(MCP)。
如何通過API訪問QWEN3型號
要使用QWEN3型號,我們將使用OpenRouter API通過API訪問它。這是這樣做的方法:
- 在OpenRouter上創建一個帳戶,然後轉到模型搜索欄以找到該模型的API。
- 選擇您選擇的模型,然後在著陸頁面上單擊“創建API密鑰”以生成新的API。
使用qwen3為您的AI解決方案供電
在本節中,我們將使用QWEN3構建AI應用程序的過程。我們將首先使用模型創建AI驅動的旅行計劃者代理,然後使用Langchain創建Q/A rag機器人。
先決條件
在使用QWEN3構建一些現實世界AI解決方案之前,我們需要首先介紹基本先決條件,例如:
- 熟悉命令提示或終端以及通過終端運行它們的能力。
- 能夠設置環境變量。
- python必須安裝:https://www.python.org/downloads/
- 關於Langchain的基礎知識:https://www.langchain.com/
使用qwen3構建AI代理
在本節中,我們將使用QWEN3創建一個AI驅動的旅行社,該旅行社將為您所訪問的城市或地方提供主要的旅行地點。我們還將使代理商能夠搜索Internet以查找更新的信息,並添加一個啟用貨幣轉換的工具。
步驟1:設置庫和工具
首先,我們將安裝和導入構建代理所需的必要庫和工具。
! 來自langchain.chat_models導入chatopenai 來自langchain。代理導入工具 來自langchain.tools進口Duckduckgosearchrun 來自langchain.satent llm = chatopenai( base_url =“ https://openrouter.ai/api/v1”, api_key =“ your_api_key”, 型號=“ qwen/qwen3-235b-a22b:免費” ) #網絡搜索工具 搜索= DuckDuckgoSearchRun() #目標工具 def get_destination(目的地): 返回search.run(f“ {destination}}中的前3個旅遊景點”) destinationTool =工具( 名稱=“目標推薦”, func = get_destinations, 描述=“在城市找到最高的地方” ) #貨幣工具 def convert_usd_to_inr(查詢): 量= [float(s)for query.split()if s.replace('。',',',1).isdigit()] 如果金額: 返回f“ {量[0]} usd = {量[0] * 83.2:.2f} inr” 返回“無法解釋金額”。 貨幣工具=工具( 名稱=“貨幣轉換器”, func = convert_usd_to_inr, 描述=“根據靜態率將USD轉換為INR” )
- search_tool: duckduckgosearchrun()使代理商可以使用Web搜索獲取有關流行旅遊景點的實時信息。
- DestinationTool:應用GET_DESTINATIONS()函數,該功能使用搜索工具在任何給定的城市中獲取前三名旅遊景點。
- 貨幣工具:使用convert_usd_to_inr()函數將價格從美元轉換為INR。您可以在功能中更改“ INR”,以將其轉換為您選擇的貨幣。
另請閱讀:與Huggingface,Langchain和Mistralai建立旅行助理聊天機器人
步驟2:創建代理
現在,我們已經初始化了所有工具,讓我們繼續創建一個可以使用工具並為旅行計劃的代理。
工具= [destinationTool,貨幣托工具] 代理= initialize_agent( 工具=工具, llm = llm, agent_type =“零射擊反應描述”, 冗長= true ) def trip_planner(城市,usd_budget): dest = get_destinations(城市) inr_budget = convert_usd_to_inr(f“ {usd_budget} usd usd to inr”) 返回f“”這是您的旅行計劃: *{city}*中的頂部斑點: {dest} *預算*: {inr_budget} 享受您的一日遊! ”“”
- initialize_agent:此函數使用零拍反應方法創建用蘭鏈的代理,從而使代理可以理解工具描述。
- Agent_Type: “零射擊反應描述”使Agent LLM使用工具說明和輸入來確定在沒有事先知識的情況下應在某些情況下使用哪種工具。
- 冗長:冗長可以啟用代理商思維過程的記錄,因此我們可以監視代理做出的每個決定,包括所調用的所有交互和工具。
- Trip_planner:這是一個Python函數,它可以手動調用工具而不是依靠代理。它允許用戶為特定問題選擇最佳工具。
步驟3:初始化代理
在本節中,我們將初始化代理並觀察其響應。
#初始化代理 城市=“德里” USD_BUDGET = 8500 #運行多代理計劃者 響應= agent.run(f“計劃一日遊{city},預算為{usd_budget} usd”) 從ipython.display導入降價,顯示 顯示(Markdown(響應))
- 代理的調用: Agent.run()通過提示使用用戶的意圖併計劃旅行。
輸出
使用qwen3構建抹布系統
在本節中,我們將創建一個RAG機器人,該機器人可以從知識庫中回答相關輸入文檔中的任何查詢。這提供了使用QWEN/QWEN3-235B-A22B的信息響應。該系統還將使用Langchain來產生準確和上下文感知的響應。
步驟1:設置庫和工具
首先,我們將安裝和導入構建抹布系統所需的必要庫和工具。
! 來自langchain_community.document_loaders import textloader 來自langchain.text_splitter導入tarnextsplitter 來自langchain_community.vectorstores導入色度 來自langchain.embeddings進口 從Langchain。鏈接進口檢索 來自langchain.chat_models導入chatopenai #加載您的文檔 loader = textloader(“/content/my_docs.txt”) docs = loader.load()
- 加載文檔: Langchain的“ Textloader”類將文檔加載文檔,例如PDF,TXT或DOC文件,該文件將用於Q/A檢索。在這裡,我已經上傳了my_docs.txt。
- 選擇矢量設置:我已經使用Chromadb來存儲和搜索矢量數據庫中的嵌入式Q/A過程。
步驟2:創建嵌入
現在,我們已經加載了文檔,讓我們繼續從中創建嵌入式,這將有助於放鬆檢索過程。
#分成大塊 splitter = prinateTextSplitter(chunk_size = 300,chunk_overlap = 50) 塊= splitter.split_documents(文檔) #帶有擁抱面模型 embeddings = huggingFaceEmbedDings(model_name =“ all-minilm-l6-v2”) db = chroma.from_documents(塊,嵌入=嵌入) #設置Qwen llm來自OpenRouter llm = chatopenai( base_url =“ https://openrouter.ai/api/v1”, api_key =“ your_api_key”, 型號=“ qwen/qwen3-235b-a22b:免費” ) #創建抹布鏈 refierver = db.as_retriever(search_kwargs = {“ k”:2}) rag_chain = reterievalqa.from_chain_type(llm = llm,retriever = retriever)
- 文檔分配: targintextsplitter()將文本分成較小的塊,這將主要在兩件事中有所幫助。首先,它可以簡化檢索過程,其次,它有助於通過chunk_overlap從以前的塊中保留上下文。
- 嵌入文檔:嵌入文本將文本轉換為每個令牌設定維的嵌入向量。在這裡,我們使用的是300的chunk_size,這意味著每個單詞/令牌都將轉換為300維的向量。現在,此向量嵌入將對塊中的其他單詞具有該詞的所有上下文信息。
- 抹布鏈:抹布鏈將Chromadb與LLM結合在一起,形成抹布。這使我們能夠從文檔以及模型中獲得上下文意識的答案。
步驟3:初始化抹布系統
#問一個問題 響應= rag_chain.invoke({“ query”:“我該如何與MCP一起使用QWEN。請給我一個逐步指南以及必要的代碼shippets'}) 顯示(Markdown(響應['result']))
- 查詢執行: RAG_CHAIN_INVOKE()方法將將用戶的查詢發送到抹布系統,然後從文檔存儲(Vector DB)檢索相關的上下文感知塊,並生成上下文感知的答案。
輸出
您可以在此處找到完整的代碼。
Qwen3的應用
以下是Qwen3在各行業中的更多應用:
- 自動編碼: QWEN3可以生成,調試並提供代碼文檔,這可以幫助開發人員無需手動努力解決錯誤。其22B參數模型在編碼方面表現出色,具有與DeepSeek-R1,Gemini 2.5 Pro和OpenAI的O3-Mini等模型相當的性能。
- 教育與研究: QWEN3存檔數學,物理學和邏輯推理問題的準確性很高。它也可以媲美雙子座2.5 pro,而擅長於Openai的O1,O3-Mini,DeepSeek-R1和Grok 3 Beta。
- 基於代理的工具集成: QWEN3還允許使用其工具稱呼模板將外部工具,API和MCP用於多步和多代理工作流程,從而在AI代理任務中領導。
- 高級推理任務: QWEN3使用廣泛的思維能力來提供最佳和準確的響應。該模型使用經過想法的鏈條來進行複雜的任務和非思想模式以進行優化的速度。
結論
在本文中,我們學會瞭如何構建QWEN3驅動的代理AI和抹布系統。 Qwen3的高性能,多語言支持和高級推理能力使其成為知識檢索和基於代理的任務的強大選擇。通過將QWEN3集成到抹布和代理管道中,我們可以得到準確,上下文感知和平穩的響應,從而使其成為AI驅動系統現實世界應用程序的有力競爭者。
常見問題
Q1。 QWEN3與其他LLM的抹布有何不同?A. QWEN3具有混合推理能力,使其可以對響應進行動態更改,從而使其可以優化抹布工作流程,以進行檢索和復雜分析。
Q2。整合抹布所需的工具是什麼?答:它主要包括矢量數據庫,嵌入模型,蘭鏈工作流程和訪問模型的API。
Q3。 Qwen3可以允許代理工作流中的多步工具鏈接嗎?是的,借助QWEN代理的內置工具調用模板,我們可以解析並啟用順序工具操作,例如Web搜索,數據分析和報告生成。
Q4。如何減少QWEN3代理響應中的延遲?答:可以在許多方面降低潛伏期,其中一些是:
1。使用QWEN3-30B-A3B之類的MOE模型,該模型只有30億個活動參數。
2。使用GPU優化的推論。
答:常見錯誤包括:
1。 MCP服務器初始化失敗,例如JSON格式和初始化。
2。工具響應配對錯誤。
3。上下文窗口溢出。
以上是如何使用qwen3構建抹布系統和AI代理的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

Meta的Llama 3.2:多模式和移動AI的飛躍 Meta最近公佈了Llama 3.2,這是AI的重大進步,具有強大的視覺功能和針對移動設備優化的輕量級文本模型。 以成功為基礎

嘿,編碼忍者!您當天計劃哪些與編碼有關的任務?在您進一步研究此博客之前,我希望您考慮所有與編碼相關的困境,這是將其列出的。 完畢? - 讓&#8217

本週的AI景觀:進步,道德考慮和監管辯論的旋風。 OpenAI,Google,Meta和Microsoft等主要參與者已經釋放了一系列更新,從開創性的新車型到LE的關鍵轉變

Shopify首席執行官TobiLütke最近的備忘錄大膽地宣布AI對每位員工的基本期望是公司內部的重大文化轉變。 這不是短暫的趨勢。這是整合到P中的新操作範式

介紹 Openai已根據備受期待的“草莓”建築發布了其新模型。這種稱為O1的創新模型增強了推理能力,使其可以通過問題進行思考

介紹 想像一下,穿過美術館,周圍是生動的繪畫和雕塑。現在,如果您可以向每一部分提出一個問題並獲得有意義的答案,該怎麼辦?您可能會問:“您在講什麼故事?

Meta's Llama 3.2:多式聯運AI強力 Meta的最新多模式模型Llama 3.2代表了AI的重大進步,具有增強的語言理解力,提高的準確性和出色的文本生成能力。 它的能力t

對於那些可能是我專欄新手的人,我廣泛探討了AI的最新進展,包括體現AI,AI推理,AI中的高科技突破,及時的工程,AI培訓,AI,AI RE RE等主題
