QWEN3을 사용하여 Rag 시스템 및 AI 에이전트를 구축하는 방법
Qwen은 최신 가족 인 Qwen3의 일환으로 8 개의 새로운 모델을 유망한 기능을 선보였습니다. 플래그십 모델 인 QWEN3-235B-A22B는 표준 벤치 마크에서 DeepSeek-R1, OpenAi의 O1, O3-Mini, Grok 3 및 Gemini 2.5-Pro를 포함한 대부분의 다른 모델을 능가했습니다. 한편, 작은 QWEN3-30B-A3B는 QWQ-32B를 능가하는 성능을 발휘했으며, 이는 새로운 모델로 활성화 된 매개 변수의 약 10 배를 가졌다. 이러한 고급 기능을 통해 이러한 모델은 광범위한 응용 프로그램에 훌륭한 선택으로 판명되었습니다. 이 기사에서는 모든 QWEN3 모델의 기능을 탐색하고 RAG 시스템 및 AI 에이전트를 구축하는 데 사용하는 방법을 배웁니다.
목차
- QWEN3 란 무엇입니까?
- QWEN3의 주요 기능
- API를 통해 QWEN3 모델에 액세스하는 방법
- QWEN3을 사용하여 AI 솔루션에 전원을 공급합니다
- 전제 조건
- QWEN3을 사용하여 AI 에이전트 구축
- QWEN3을 사용하여 RAG 시스템 구축
- QWEN3의 응용
- 결론
- 자주 묻는 질문
QWEN3 란 무엇입니까?
QWEN3은 8 가지 모델로 구성된 Qwen 제품군의 최신 일련의 대형 언어 모델 (LLM)입니다. 여기에는 QWEN3-235B-A22B, QWEN3-30B-A3B, QWEN3-32B, QWEN3-14B, QWEN3-8B, QWEN3-4B, QWEN3-1.7B 및 QWEN3-0.6B가 포함됩니다. 이러한 모든 모델은 Apache 2.0 라이센스에 따라 릴리스되므로 개인, 개발자 및 기업이 자유롭게 사용할 수 있습니다.
이 모델 중 6 개는 밀도가 높기 때문에 추론 및 훈련 시간 동안 모든 매개 변수를 적극적으로 사용하지만 그 중 2 개는 공개 가중치입니다.
- QWEN3-235B-A22B : 2,350 억 매개 변수의 대형 모델은 220 억 개의 매개 변수입니다.
- QWEN3-30B-A3B : 300 억 개의 총 매개 변수와 30 억 개의 활성화 된 매개 변수를 가진 작은 MOE.
다음은 8 개의 QWEN3 모델을 모두 비교 한 것입니다.
모델 | 레이어 | 헤드 (Q/KV) | 넥타이 임베딩 | 컨텍스트 길이 |
Qwen3-0.6b | 28 | 16/8 | 예 | 32k |
Qwen3-1.7b | 28 | 16/8 | 예 | 32k |
QWEN3-4B | 36 | 32/8 | 예 | 32k |
QWEN3-8B | 36 | 32/8 | 아니요 | 128K |
QWEN3-14B | 40 | 40/8 | 아니요 | 128K |
QWEN3-32B | 64 | 64/8 | 아니요 | 128K |
QWEN3-30B-A3B | 48 | 32/4 | 아니요 | 128K |
QWEN3-235B-A22B | 94 | 64/4 | 아니요 | 128K |
테이블의 말은 다음과 같습니다.
- 층 : 층은 사용 된 변압기 블록의 수를 나타냅니다. 여기에는 다중 헤드 자체 정보 메커니즘, 피드 포워드 네트워크, 위치 인코딩, 층 정규화 및 잔류 연결이 포함됩니다. 따라서 QWEN3-30B-A3B에 48 개의 층이 있다고 말하면 모델이 48 개의 변압기 블록을 사용하여 순차적으로 또는 평행하게 쌓았다는 것을 의미합니다.
- 헤드 : 변압기는 다중 헤드주의를 사용하여 데이터에서 새로운 측면을 배우기 위해주의 메커니즘을 여러 헤드로 나눕니다. 여기서 Q/KV는 다음을 나타냅니다.
- Q (쿼리 헤드) : 쿼리 생성에 사용되는 총주의 헤드 수.
- KV (키 및 값) : 주의 블록 당 키/값 헤드 수.
참고 : 키, 쿼리 및 값에 대한 이러한 주의력은 자체 정보에 의해 생성 된 키, 쿼리 및 값 벡터와 완전히 다릅니다.
또한 읽기 : QWEN3 모델 : 액세스 방법, 성능, 기능 및 응용 프로그램
QWEN3의 주요 기능
다음은 QWEN3 모델의 주요 기능입니다.
- 사전 훈련 : 사전 훈련 프로세스는 세 단계로 구성됩니다.
- 첫 번째 단계에서,이 모델은 컨텍스트 길이가 4K 토큰으로 30 조 이상의 토큰으로 사전에 사전에 사전되었습니다. 이것은 모델 기본 언어 기술과 일반적인 지식을 가르쳤다.
- 두 번째 단계에서는 STEM, 코딩 및 추론 작업과 같은 지식 집약적 인 데이터의 비율을 높이면 데이터 품질이 향상되었습니다. 그런 다음이 모델은 5 조 5 조 개의 토큰에 대해 교육을 받았습니다.
- 마지막 단계에서는 컨텍스트 길이를 32k 토큰으로 증가시켜 고품질의 긴 컨텍스트 데이터를 사용했습니다. 이는 모델이 더 긴 입력을 효과적으로 처리 할 수 있도록 수행되었습니다.
- 사후 훈련 : 단계별 추론과 빠른 응답을 모두 할 수있는 하이브리드 모델을 개발하기 위해 4 단계 교육 파이프 라인이 구현되었습니다. 이것은 다음으로 구성되었습니다.
- 긴 체인 비서 (COT)
- 추론 기반 강화 학습 (RL)
- 사고 모드 퓨전
- 일반 rl
- 하이브리드 사고 모드 : QWEN3 모델은 두 가지 새로운 모드를 특징으로하는 문제 해결에 하이브리드 접근법을 사용합니다.
- 사고 모드 : 이 모드에서 모델은 복잡한 문제 설명을 작고 절차 적 단계로 나누기 위해 시간이 걸립니다.
- 생각이없는 모드 : 이 모드 에서이 모델은 빠른 결과를 제공하며 대부분 간단한 질문에 적합합니다.
- 다국어 지원 : QWEN3 모델은 119 개의 언어 및 방언을 지원합니다. 이를 통해 전 세계의 사용자가 이러한 모델의 혜택을받을 수 있습니다.
- 즉흥적 인 에이전트 기능 : Qwen은 MCP (Model Context Protocol)를 지원하는 더 나은 코딩 및 에이전트 기능을 위해 QWEN3 모델을 최적화했습니다.
API를 통해 QWEN3 모델에 액세스하는 방법
QWEN3 모델을 사용하려면 OpenRouter API를 사용하여 API를 통해 액세스 할 수 있습니다. 다음은 다음과 같은 방법입니다.
- OpenRouter에 계정을 만들고 모델 검색 바로 이동하여 해당 모델의 API를 찾으십시오.
- 선택한 모델을 선택하고 방문 페이지에서 'API 키 만들기'를 클릭하여 새 API를 생성하십시오.
QWEN3을 사용하여 AI 솔루션에 전원을 공급합니다
이 섹션에서는 QWEN3을 사용하여 AI 응용 프로그램을 구축하는 프로세스를 살펴 보겠습니다. 먼저 모델을 사용하여 AI 기반 Travel Planner Agent를 만들고 Langchain을 사용하여 Q/A Rag Bot을 생성합니다.
전제 조건
QWEN3을 사용하여 실제 AI 솔루션을 구축하기 전에 먼저 다음과 같은 기본 전제 조건을 다루어야합니다.
- 명령 프롬프트 또는 터미널 및 터미널을 통해이를 실행할 수있는 능력에 익숙합니다.
- 환경 변수를 설정하는 기능.
- 파이썬을 설치해야합니다 : https://www.python.org/downloads/
- Langchain의 기본 사항에 대한 지식 : https://www.langchain.com/
QWEN3을 사용하여 AI 에이전트 구축
이 섹션에서는 QWEN3을 사용하여 방문중인 도시 또는 장소의 주요 여행 장소를 제공하는 AI 기반 여행사를 만들 것입니다. 또한 에이전트가 인터넷을 검색하여 업데이트 된 정보를 찾고 통화 변환을 가능하게하는 도구를 추가 할 수 있습니다.
1 단계 : 라이브러리 및 도구 설정
먼저, 우리는 에이전트를 구축하는 데 필요한 필요한 라이브러리와 도구를 설치하고 가져올 것입니다.
! PIP 설치 Langchain Langchain-Community Openai Duckduckgo-Search langchain.chat_models에서 chatopenai를 가져옵니다 Langchain에서 Agents 가져 오기 도구 Langchain에서 Tools 가져 오기 Duckduckgosearchrun Langchain에서 Agents import initialize_agent llm = chatopenai ( base_url = "https://openrouter.ai/api/v1", api_key = "Your_api_key", Model = "Qwen/Qwen3-235B-A22B : 무료" )) # 웹 검색 도구 검색 = duckduckgosearchrun () # 목적지를위한 도구 def get_destinations (대상) : return search.run (f "{destination}"의 상위 3 개 관광지) DestinationTool = 도구 ( 이름 = "목적지 추천인", func = get_destinations, 설명 = "도시를 방문 할 최고의 장소를 찾습니다" )) # CurrencyAgent의 도구 def convert_usd_to_inr (query) : s.replace ( '.', '', 1) .isdigit ()] 인 if query.split ()의 s에 대한 float (s). 금액 인 경우 : return f "{금액 [0]} USD = {금액 [0] * 83.2 : .2f} inr" 반품 "금액을 구문 분석 할 수 없습니다." CurrencyTool = 도구 ( 이름 = "통화 변환기", func = convert_usd_to_inr, 설명 = "정적 속도에 따라 USD를 INR로 변환" ))
- Search_Tool : DuckDuckGosearchRun ()을 통해 에이전트는 웹 검색을 사용하여 인기있는 관광지에 대한 실시간 정보를 얻을 수 있습니다.
- DestinationTool : 검색 도구를 사용하여 주어진 도시에서 상위 3 개 관광지를 얻는 get_destinations () 함수를 적용합니다.
- CurrencyTool : convert_usd_to_inr () 함수를 사용하여 가격을 USD에서 INR로 변환합니다. 함수에서 'INR'을 변경하여 선택한 통화로 변환 할 수 있습니다.
또한 읽으십시오 : Huggingface, Langchain 및 Mistralai와 함께 여행 보조 챗봇 구축
2 단계 : 에이전트 생성
이제 모든 도구를 초기화 했으므로 도구를 사용하는 에이전트를 만들고 여행 계획을 세우십시오.
도구 = [DestinationTool, CurrencyTool] 에이전트 = initialize_agent ( 도구 = 도구, llm = llm, agent_type = "Zero-Shot-react-description", Verbose = true )) def trip_planner (City, USD_Budget) : dest = get_destinations (도시) inr_budget = convert_usd_to_inr (f "{usd_budget} usd to inr") 반환 f "" ""여행 계획은 다음과 같습니다. *{city}*의 최고 지점 : : {dest} *예산*: {inr_budget} 당일 치기 여행을 즐기세요! "" "
- Initialize_agent : 이 기능은 제로 샷 반응 접근법을 사용하여 Langchain을 사용하여 에이전트를 생성하여 에이전트가 도구 설명을 이해할 수있게합니다.
- Agent_type : "Zero-Shot-React-Description"을 통해 Agent LLM은 도구 설명 및 입력을 사용하여 사전 지식없이 특정 상황에서 어떤 도구를 사용해야하는지 결정할 수 있습니다.
- Verbose : Verbose는 에이전트의 사고 과정을 기록 할 수 있으므로, 우리는 상담원이 호출 된 모든 상호 작용 및 도구를 포함하여 각 결정을 모니터링 할 수 있습니다.
- Trip_planner : 이것은 에이전트에 의존하는 대신 도구를 수동으로 호출하는 파이썬 기능입니다. 이를 통해 사용자는 특정 문제에 가장 적합한 도구를 선택할 수 있습니다.
3 단계 : 에이전트 초기화
이 섹션에서는 에이전트를 초기화하고 응답을 관찰 할 것입니다.
# 에이전트를 초기화하십시오 City = "델리" usd_budget = 8500 # 다중 에이전트 플래너를 실행하십시오 Response = agent.run (f "{USD_Budget} USD의 예산으로 {city}로 당일 여행 계획") IPYTHON. DISPLAY 가져 오기 MarkDown, Display 디스플레이 (Markdown (응답))
- 에이전트 호출 : agent.run ()은 프롬프트를 통해 사용자의 의도를 사용하고 여행을 계획합니다.
산출
QWEN3을 사용하여 RAG 시스템 구축
이 섹션에서는 지식 기반의 관련 입력 문서 내의 모든 쿼리에 응답하는 래그 봇을 만들 것입니다. 이것은 QWEN/QWEN3-235B-A22B를 사용한 유익한 응답을 제공합니다. 이 시스템은 또한 Langchain을 사용하여 정확하고 상황을 인식하는 응답을 생성 할 것입니다.
1 단계 : 라이브러리 및 도구 설정
먼저, RAG 시스템을 구축하는 데 필요한 필요한 라이브러리 및 도구를 설치하고 가져올 것입니다.
! PIP 설치 Langchain Langchain-Community Langchain-Core Openai Tiktoken Chromadb 문장 transformers Duckduckgo-search langchain_community.document_loaders에서 텍스트 로더를 가져옵니다 langchain.text_splitter import aratertextsplitter에서 langchain_community.vectorstores import Chroma에서 langchain.embeddings import huggingfaceembeddings Langchain에서 체인 import retrievalqa langchain.chat_models에서 chatopenai를 가져옵니다 # 문서를로드하십시오 로더 = 텍스트 로더 ( "/content/my_docs.txt") docs = loader.load ()
- 문서로드 : Langchain의 "텍스트 로더"클래스는 Q/A 검색에 사용될 PDF, TXT 또는 DOC 파일과 같은 문서를로드합니다. 여기에 my_docs.txt를 업로드했습니다.
- 벡터 설정 선택 : ChromADB를 사용하여 Q/A 프로세스를 위해 벡터 데이터베이스의 임베딩을 저장하고 검색했습니다.
2 단계 : 임베딩 생성
이제 우리는 문서를로드 했으므로 문서를 작성하여 검색 프로세스를 완화하는 데 도움이됩니다.
# 청크로 나뉩니다 splitter = charac 청크 = splitter.split_documents (Docs) # Huggingface 모델이 포함되어 있습니다 Embedings = HuggingFaceembedDings (model_name = "All-Minilm-L6-V2") DB = Chroma.from_documents (청크, 임베딩 = 임베딩) # OpenRouter에서 Qwen LLM을 설정합니다 llm = chatopenai ( base_url = "https://openrouter.ai/api/v1", api_key = "Your_api_key", Model = "Qwen/Qwen3-235B-A22B : 무료" )) # Rag Chain을 만듭니다 Retriever = db.as_retriever (search_kwargs = { "k": 2}) rag_chain = retrievalqa.from_chain_type (llm = llm, retriever = retriever)
- 문서 분할 : 문자 텍스트 스플리터 ()는 텍스트를 작은 청크로 나누어 주로 두 가지에 도움이됩니다. 첫째, 검색 프로세스가 완화되고 둘째, Chunk_overlap을 통해 이전 청크의 컨텍스트를 유지하는 데 도움이됩니다.
- 포함 문서 : 임베딩은 텍스트를 각 토큰에 대한 세트 차원의 임베딩 벡터로 변환합니다. 여기서 우리는 300의 chunk_size를 사용했습니다. 즉, 모든 단어/토큰이 300 치수의 벡터로 변환됩니다. 이제이 벡터 임베딩은 청크의 다른 단어와 관련하여 해당 단어의 모든 맥락 정보를 갖습니다.
- Rag Chain : Rag Chain은 ChromADB와 LLM을 결합하여 RAG를 형성합니다. 이를 통해 우리는 문서와 모델에서 상황에 맞는 답변을 얻을 수 있습니다.
3 단계 : 헝겊 시스템 초기화
# 질문을하십시오 response = rag_chain.invoke ({ "query": "MCP와 함께 Qwen을 어떻게 사용할 수 있습니까? 필요한 코드 스 니펫과 함께 단계별 가이드를 알려주세요"}). display (markdown (응답 [ 'result']))
- 쿼리 실행 : rag_chain_invoke () 메소드는 사용자의 쿼리를 래그 시스템으로 보낸 다음 문서 저장소 (벡터 DB)에서 관련 컨텍스트 인식 청크를 검색하고 컨텍스트 인식 답변을 생성합니다.
산출
여기에서 전체 코드를 찾을 수 있습니다.
QWEN3의 응용
다음은 산업 전반에 걸쳐 QWEN3의 추가 응용 프로그램입니다.
- 자동 코딩 : QWEN3은 코드에 대한 문서를 생성, 디버그 및 제공하여 개발자가 수동 노력없이 오류를 해결할 수 있도록 도와줍니다. 22B 매개 변수 모델은 Coding에서 탁월하며 DeepSeek-R1, Gemini 2.5 Pro 및 OpenAi의 O3-Mini와 같은 모델과 비교할 수 있습니다.
- 교육 및 연구 : QWEN3는 수학, 물리학 및 논리적 추론 문제 해결에서 높은 정확도를 보관합니다. 또한 Gemini 2.5 Pro와 경쟁하는 반면 OpenAi의 O1, O3-Mini, DeepSeek-R1 및 Grok 3 베타와 같은 모델로 탁월합니다.
- 에이전트 기반 도구 통합 : QWEN3은 또한 도구 통합 템플릿과 함께 다중 단계 및 다수의 워크 플로우에 외부 도구, API 및 MCP를 사용할 수있게함으로써 AI 에이전트 작업을 이끌어냅니다.
- 고급 추론 작업 : QWEN3은 광범위한 사고 능력을 사용하여 최적의 정확한 반응을 제공합니다. 이 모델은 복잡한 작업에 대한 사슬의 추론과 최적화 된 속도를 위해 생각하지 않는 모드를 사용합니다.
결론
이 기사에서는 QWEN3 구동 에이전트 AI 및 RAG 시스템을 구축하는 방법을 배웠습니다. QWEN3의 고성능, 다국어 지원 및 고급 추론 능력은 지식 검색 및 에이전트 기반 작업을위한 강력한 선택입니다. QWEN3을 RAG 및 에이전트 파이프 라인에 통합함으로써 정확하고 상황을 인식하며 부드러운 응답을 얻을 수있어 AI 구동 시스템에 대한 실제 응용 프로그램을위한 강력한 경쟁자가 될 수 있습니다.
자주 묻는 질문
Q1. QWEN3은 RAG의 다른 LLM과 어떻게 다릅니 까?A. QWEN3에는 응답을 동적으로 변경할 수있는 하이브리드 추론 기능이있어 검색 및 복잡한 분석을 위해 RAG 워크 플로우를 최적화 할 수 있습니다.
Q2. 헝겊을 통합하는 데 필요한 도구는 무엇입니까?A. 주로 벡터 데이터베이스, 임베딩 모델, Langchain 워크 플로 및 API가 포함되어있어 모델에 액세스합니다.
Q3. QWEN3은 에이전트 워크 플로에서 다단계 도구 체인을 허용 할 수 있습니까?예, Qwen-Agent 내장 도구 통화 템플릿을 사용하면 웹 검색, 데이터 분석 및 보고서 생성과 같은 순차적 도구 작업을 구문 분석하고 활성화 할 수 있습니다.
Q4. QWEN3 에이전트 응답에서 대기 시간을 줄이는 방법은 무엇입니까? A. 여러 가지면에서 대기 시간을 줄일 수 있으며 일부는 다음과 같습니다.
1. QWEN3-30B-A3B와 같은 MOE 모델 사용은 30 억 개의 활성 매개 변수 만 있습니다.
2. GPU- 최적화 된 추론을 사용하여.
A. 일반적인 오류에는 다음이 포함됩니다.
1. JSON 형식 및 init와 같은 MCP 서버 초기화 실패.
2. 도구 응답 페어링 오류.
3. 컨텍스트 창 오버플로.
위 내용은 QWEN3을 사용하여 Rag 시스템 및 AI 에이전트를 구축하는 방법의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

Video Face Swap
완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

메타의 라마 3.2 : 멀티 모달 및 모바일 AI의 도약 Meta는 최근 AI에서 강력한 비전 기능과 모바일 장치에 최적화 된 가벼운 텍스트 모델을 특징으로하는 AI의 상당한 발전 인 Llama 3.2를 공개했습니다. 성공을 바탕으로 o

이봐, 코딩 닌자! 하루 동안 어떤 코딩 관련 작업을 계획 했습니까? 이 블로그에 더 자세히 살펴보기 전에, 나는 당신이 당신의 모든 코딩 관련 문제에 대해 생각하기를 원합니다. 완료? - ’

이번 주 AI 환경 : 발전의 회오리 바람, 윤리적 고려 사항 및 규제 토론. OpenAi, Google, Meta 및 Microsoft와 같은 주요 플레이어

Shopify CEO Tobi Lütke의 최근 메모는 AI 숙련도가 모든 직원에 대한 근본적인 기대를 대담하게 선언하여 회사 내에서 중요한 문화적 변화를 표시합니다. 이것은 도망가는 트렌드가 아닙니다. 그것은 p에 통합 된 새로운 운영 패러다임입니다

소개 OpenAi는 기대가 많은 "Strawberry"아키텍처를 기반으로 새로운 모델을 출시했습니다. O1로 알려진이 혁신적인 모델은 추론 기능을 향상시켜 문제를 통해 생각할 수 있습니다.

소개 생생한 그림과 조각으로 둘러싸인 아트 갤러리를 걷는 것을 상상해보십시오. 이제 각 작품에 질문을하고 의미있는 대답을 얻을 수 있다면 어떨까요? “어떤 이야기를하고 있습니까?

메타의 라마 3.2 : 멀티 모달 AI 강국 Meta의 최신 멀티 모드 모델 인 LLAMA 3.2는 AI의 상당한 발전으로 향상된 언어 이해력, 개선 된 정확도 및 우수한 텍스트 생성 기능을 자랑합니다. 그것의 능력 t

내 칼럼을 처음 접할 수있는 분들을 위해, 나는 구체화 된 AI, AI 추론, AI의 첨단 획기적인 혁신, AI 교육, AI의 수비, ai re
