如何使用qwen3构建抹布系统和AI代理
Qwen刚刚发布了8种新车型,作为其最新家族Qwen3的一部分,展示了有希望的功能。旗舰型号QWEN3-235B-A22B优于其他大多数型号,包括DeepSeek-R1,OpenAi的O1,O3-Mini,Grok 3和Gemini 2.5-Pro,在标准基准测试中。同时,小QWEN3-30B-A3B的表现优于QWQ-32B,其作为新模型的活性参数约为10倍。具有如此高级的功能,这些模型被证明是广泛应用程序的绝佳选择。在本文中,我们将探讨所有QWEN3模型的功能,并学习如何使用它们来构建抹布系统和AI代理。
目录
- 什么是qwen3?
- qwen3的主要特征
- 如何通过API访问QWEN3型号
- 使用qwen3为您的AI解决方案供电
- 先决条件
- 使用qwen3构建AI代理
- 使用qwen3构建抹布系统
- Qwen3的应用
- 结论
- 常见问题
什么是qwen3?
Qwen3是QWEN家族中最新系列的大型语言模型(LLM),由8种不同的模型组成。其中包括QWEN3-235B-A22B,QWEN3-30B-A3B,QWEN3-32B,QWEN3-14B,QWEN3-8B,QWEN3-4B,QWEN3-1.7B和QWEN3-0.6B。所有这些模型均在Apache 2.0许可下发布,使其可向个人,开发人员和企业免费使用。
尽管其中6个模型是密集的,但这意味着它们在推理和培训期间积极使用所有参数,但其中2个是开放加权的:
- QWEN3-235B-A22B:具有2350亿参数的大型模型,其中220亿个是激活参数。
- QWEN3-30B-A3B:一个较小的MUE,总参数为30亿和30亿个激活参数。
这是所有8种QWEN3模型的详细比较:
型号 | 层 | 头(Q/KV) | 领带嵌入 | 上下文长度 |
QWEN3-0.6B | 28 | 16/8 | 是的 | 32K |
qwen3-1.7b | 28 | 16/8 | 是的 | 32K |
qwen3-4b | 36 | 32/8 | 是的 | 32K |
qwen3-8b | 36 | 32/8 | 不 | 128K |
Qwen3-14b | 40 | 40/8 | 不 | 128K |
QWEN3-32B | 64 | 64/8 | 不 | 128K |
QWEN3-30B-A3B | 48 | 32/4 | 不 | 128K |
QWEN3-235B-A22B | 94 | 64/4 | 不 | 128K |
这是桌子所说的:
-
层:图层表示所使用的变压器块的数量。它包括多头自我发挥机制,饲料向前网络,位置编码,层归一化和剩余连接。因此,当我说QWEN3-30B-A3B具有48层时,这意味着该模型使用48个变压器块,依次或并行堆叠。
-
头:变形金刚使用多头注意力,将其注意力机制分为几个头部,每个人都从数据中学习新方面。在这里,Q/KV代表:
- Q(查询头):用于生成查询的注意力头的总数。
- KV(密钥和值):每个注意块的密钥/值头的数量。
注意:这些关注,查询和价值的注意力与自我发挥产生的密钥,查询和值向量完全不同。
另请阅读:QWEN3模型:如何访问,性能,功能和应用程序
qwen3的主要特征
以下是QWEN3模型的一些关键功能:
-
预训练:训练过程包括三个阶段:
- 在第一阶段,该模型在30万亿个令牌上进行了预测,上下文长度为4K令牌。这教授了模型的基本语言技能和常识。
- 在第二阶段,通过增加诸如STEM,编码和推理任务等知识密集数据的比例来提高数据质量。然后对模型进行了另外5万亿代币的训练。
- 在最后阶段,通过将上下文长度增加到32K令牌来使用高质量的长上下文数据。这样做是为了确保模型可以有效处理更长的输入。
-
训练后:为了开发能够逐步推理和快速响应的混合模型,实施了四阶段的训练管道。这包括:
- 长链(COT)
- 基于推理的强化学习(RL)
- 思维模式融合
- 一般RL
-
混合思维模式: QWEN3模型采用混合方法来解决问题,具有两种新模式:
- 思考模式:在这种模式下,模型会花费时间将复杂的问题语句分解为小的程序步骤来解决它。
- 非思想模式:在此模式下,模型提供了快速的结果,并且主要适合简单的问题。
- 多语言支持: QWEN3模型支持119种语言和方言。这可以帮助来自世界各地的用户从这些模型中受益。
- 即兴代理能力: QWEN优化了QWEN3模型,以提高编码和代理功能,并支持模型上下文协议(MCP)。
如何通过API访问QWEN3型号
要使用QWEN3型号,我们将使用OpenRouter API通过API访问它。这是这样做的方法:
- 在OpenRouter上创建一个帐户,然后转到模型搜索栏以找到该模型的API。
- 选择您选择的模型,然后在着陆页面上单击“创建API密钥”以生成新的API。
使用qwen3为您的AI解决方案供电
在本节中,我们将使用QWEN3构建AI应用程序的过程。我们将首先使用模型创建AI驱动的旅行计划者代理,然后使用Langchain创建Q/A rag机器人。
先决条件
在使用QWEN3构建一些现实世界AI解决方案之前,我们需要首先介绍基本先决条件,例如:
- 熟悉命令提示或终端以及通过终端运行它们的能力。
- 能够设置环境变量。
- python必须安装:https://www.python.org/downloads/
- 关于Langchain的基础知识:https://www.langchain.com/
使用qwen3构建AI代理
在本节中,我们将使用QWEN3创建一个AI驱动的旅行社,该旅行社将为您所访问的城市或地方提供主要的旅行地点。我们还将使代理商能够搜索Internet以查找更新的信息,并添加一个启用货币转换的工具。
步骤1:设置库和工具
首先,我们将安装和导入构建代理所需的必要库和工具。
! 来自langchain.chat_models导入chatopenai 来自langchain。代理导入工具 来自langchain.tools进口Duckduckgosearchrun 来自langchain.satent llm = chatopenai( base_url =“ https://openrouter.ai/api/v1”, api_key =“ your_api_key”, 型号=“ qwen/qwen3-235b-a22b:免费” ) #网络搜索工具 搜索= DuckDuckgoSearchRun() #目标工具 def get_destination(目的地): 返回search.run(f“ {destination}}中的前3个旅游景点”) destinationTool =工具( 名称=“目标推荐”, func = get_destinations, 描述=“在城市找到最高的地方” ) #货币工具 def convert_usd_to_inr(查询): 量= [float(s)for query.split()if s.replace('。',',',1).isdigit()] 如果金额: 返回f“ {量[0]} usd = {量[0] * 83.2:.2f} inr” 返回“无法解释金额”。 货币工具=工具( 名称=“货币转换器”, func = convert_usd_to_inr, 描述=“根据静态率将USD转换为INR” )
- search_tool: duckduckgosearchrun()使代理商可以使用Web搜索获取有关流行旅游景点的实时信息。
- DestinationTool:应用GET_DESTINATIONS()函数,该功能使用搜索工具在任何给定的城市中获取前三名旅游景点。
- 货币工具:使用convert_usd_to_inr()函数将价格从美元转换为INR。您可以在功能中更改“ INR”,以将其转换为您选择的货币。
另请阅读:与Huggingface,Langchain和Mistralai建立旅行助理聊天机器人
步骤2:创建代理
现在,我们已经初始化了所有工具,让我们继续创建一个可以使用工具并为旅行计划的代理。
工具= [destinationTool,货币托工具] 代理= initialize_agent( 工具=工具, llm = llm, agent_type =“零射击反应描述”, 冗长= true ) def trip_planner(城市,usd_budget): dest = get_destinations(城市) inr_budget = convert_usd_to_inr(f“ {usd_budget} usd usd to inr”) 返回f“”这是您的旅行计划: *{city}*中的顶部斑点: {dest} *预算*: {inr_budget} 享受您的一日游!”“”
- initialize_agent:此函数使用零拍反应方法创建用兰链的代理,从而使代理可以理解工具描述。
- Agent_Type: “零射击反应描述”使Agent LLM使用工具说明和输入来确定在没有事先知识的情况下应在某些情况下使用哪种工具。
- 冗长:冗长可以启用代理商思维过程的记录,因此我们可以监视代理做出的每个决定,包括所调用的所有交互和工具。
- Trip_planner:这是一个Python函数,它可以手动调用工具而不是依靠代理。它允许用户为特定问题选择最佳工具。
步骤3:初始化代理
在本节中,我们将初始化代理并观察其响应。
#初始化代理 城市=“德里” USD_BUDGET = 8500 #运行多代理计划者 响应= agent.run(f“计划一日游{city},预算为{usd_budget} usd”) 从ipython.display导入降价,显示 显示(Markdown(响应))
- 代理的调用: Agent.run()通过提示使用用户的意图并计划旅行。
输出
使用qwen3构建抹布系统
在本节中,我们将创建一个RAG机器人,该机器人可以从知识库中回答相关输入文档中的任何查询。这提供了使用QWEN/QWEN3-235B-A22B的信息响应。该系统还将使用Langchain来产生准确和上下文感知的响应。
步骤1:设置库和工具
首先,我们将安装和导入构建抹布系统所需的必要库和工具。
! 来自langchain_community.document_loaders import textloader 来自langchain.text_splitter导入tarnextsplitter 来自langchain_community.vectorstores导入色度 来自langchain.embeddings进口 从Langchain。链接进口检索 来自langchain.chat_models导入chatopenai #加载您的文档 loader = textloader(“/content/my_docs.txt”) docs = loader.load()
- 加载文档: Langchain的“ Textloader”类将文档加载文档,例如PDF,TXT或DOC文件,该文件将用于Q/A检索。在这里,我已经上传了my_docs.txt。
- 选择矢量设置:我已经使用Chromadb来存储和搜索矢量数据库中的嵌入式Q/A过程。
步骤2:创建嵌入
现在,我们已经加载了文档,让我们继续从中创建嵌入式,这将有助于放松检索过程。
#分成大块 splitter = prinateTextSplitter(chunk_size = 300,chunk_overlap = 50) 块= splitter.split_documents(文档) #带有拥抱面模型 embeddings = huggingFaceEmbedDings(model_name =“ all-minilm-l6-v2”) db = chroma.from_documents(块,嵌入=嵌入) #设置Qwen llm来自OpenRouter llm = chatopenai( base_url =“ https://openrouter.ai/api/v1”, api_key =“ your_api_key”, 型号=“ qwen/qwen3-235b-a22b:免费” ) #创建抹布链 refierver = db.as_retriever(search_kwargs = {“ k”:2}) rag_chain = reterievalqa.from_chain_type(llm = llm,retriever = retriever)
- 文档分配: targintextsplitter()将文本分成较小的块,这将主要在两件事中有所帮助。首先,它可以简化检索过程,其次,它有助于通过chunk_overlap从以前的块中保留上下文。
- 嵌入文档:嵌入文本将文本转换为每个令牌设定维的嵌入向量。在这里,我们使用的是300的chunk_size,这意味着每个单词/令牌都将转换为300维的向量。现在,此向量嵌入将对块中的其他单词具有该词的所有上下文信息。
- 抹布链:抹布链将Chromadb与LLM结合在一起,形成抹布。这使我们能够从文档以及模型中获得上下文意识的答案。
步骤3:初始化抹布系统
#问一个问题 响应= rag_chain.invoke({“ query”:“我该如何与MCP一起使用QWEN。请给我一个逐步指南以及必要的代码shippets'}) 显示(Markdown(响应['result']))
- 查询执行: RAG_CHAIN_INVOKE()方法将将用户的查询发送到抹布系统,然后从文档存储(Vector DB)检索相关的上下文感知块,并生成上下文感知的答案。
输出
您可以在此处找到完整的代码。
Qwen3的应用
以下是Qwen3在各行业中的更多应用:
- 自动编码: QWEN3可以生成,调试并提供代码文档,这可以帮助开发人员无需手动努力解决错误。其22B参数模型在编码方面表现出色,具有与DeepSeek-R1,Gemini 2.5 Pro和OpenAI的O3-Mini等模型相当的性能。
- 教育与研究: QWEN3存档数学,物理学和逻辑推理问题的准确性很高。它也可以媲美双子座2.5 pro,而擅长于Openai的O1,O3-Mini,DeepSeek-R1和Grok 3 Beta。
- 基于代理的工具集成: QWEN3还允许使用其工具称呼模板将外部工具,API和MCP用于多步和多代理工作流程,从而在AI代理任务中领导。
- 高级推理任务: QWEN3使用广泛的思维能力来提供最佳和准确的响应。该模型使用经过想法的链条来进行复杂的任务和非思想模式以进行优化的速度。
结论
在本文中,我们学会了如何构建QWEN3驱动的代理AI和抹布系统。 Qwen3的高性能,多语言支持和高级推理能力使其成为知识检索和基于代理的任务的强大选择。通过将QWEN3集成到抹布和代理管道中,我们可以得到准确,上下文感知和平稳的响应,从而使其成为AI驱动系统现实世界应用程序的有力竞争者。
常见问题
Q1。 QWEN3与其他LLM的抹布有何不同?A. QWEN3具有混合推理能力,使其可以对响应进行动态更改,从而使其可以优化抹布工作流程,以进行检索和复杂分析。
Q2。整合抹布所需的工具是什么?答:它主要包括矢量数据库,嵌入模型,兰链工作流程和访问模型的API。
Q3。 Qwen3可以允许代理工作流中的多步工具链接吗?是的,借助QWEN代理的内置工具调用模板,我们可以解析并启用顺序工具操作,例如Web搜索,数据分析和报告生成。
Q4。如何减少QWEN3代理响应中的延迟?答:可以在许多方面降低潜伏期,其中一些是:
1。使用QWEN3-30B-A3B之类的MOE模型,该模型只有30亿个活动参数。
2。使用GPU优化的推论。
答:常见错误包括:
1。MCP服务器初始化失败,例如JSON格式和初始化。
2。工具响应配对错误。
3。上下文窗口溢出。
以上是如何使用qwen3构建抹布系统和AI代理的详细内容。更多信息请关注PHP中文网其他相关文章!

热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

Video Face Swap
使用我们完全免费的人工智能换脸工具轻松在任何视频中换脸!

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SublimeText3汉化版
中文版,非常好用

禅工作室 13.0.1
功能强大的PHP集成开发环境

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

Meta的Llama 3.2:多模式和移动AI的飞跃 Meta最近公布了Llama 3.2,这是AI的重大进步,具有强大的视觉功能和针对移动设备优化的轻量级文本模型。 以成功为基础

嘿,编码忍者!您当天计划哪些与编码有关的任务?在您进一步研究此博客之前,我希望您考虑所有与编码相关的困境,这是将其列出的。 完毕? - 让&#8217

本周的AI景观:进步,道德考虑和监管辩论的旋风。 OpenAI,Google,Meta和Microsoft等主要参与者已经释放了一系列更新,从开创性的新车型到LE的关键转变

Shopify首席执行官TobiLütke最近的备忘录大胆地宣布AI对每位员工的基本期望是公司内部的重大文化转变。 这不是短暂的趋势。这是整合到P中的新操作范式

介绍 Openai已根据备受期待的“草莓”建筑发布了其新模型。这种称为O1的创新模型增强了推理能力,使其可以通过问题进行思考

介绍 想象一下,穿过美术馆,周围是生动的绘画和雕塑。现在,如果您可以向每一部分提出一个问题并获得有意义的答案,该怎么办?您可能会问:“您在讲什么故事?

对于那些可能是我专栏新手的人,我广泛探讨了AI的最新进展,包括体现AI,AI推理,AI中的高科技突破,及时的工程,AI培训,AI,AI RE RE等主题

Meta's Llama 3.2:多式联运AI强力 Meta的最新多模式模型Llama 3.2代表了AI的重大进步,具有增强的语言理解力,提高的准确性和出色的文本生成能力。 它的能力t
