目次
目次
QWEN3とは何ですか?
QWEN3の主要な機能
APIを介してQWEN3モデルにアクセスする方法
QWEN3を使用してAIソリューションを強化します
前提条件
QWEN3を使用してAIエージェントを構築します
ステップ1:ライブラリとツールのセットアップ
ステップ2:エージェントの作成
ステップ3:エージェントの初期化
出力
QWEN3を使用してRAGシステムを構築します
ステップ2:埋め込みの作成
ステップ3:RAGシステムの初期化
QWEN3のアプリケーション
結論
よくある質問
ホームページ テクノロジー周辺機器 AI QWEN3でRAGシステムとAIエージェントを構築する方法

QWEN3でRAGシステムとAIエージェントを構築する方法

May 07, 2025 am 09:10 AM

Qwenは、最新のファミリーの一部であるQWEN3の一部として8つの新しいモデルをリリースし、有望な機能を紹介しました。フラッグシップモデルであるQWEN3-235B-A22Bは、標準ベンチマークで、DeepSeek-R1、OpenaiのO1、O3-Mini、Grok 3、Gemini 2.5-Proなど、他のほとんどのモデルを上回りました。一方、小さなQWEN3-30B-A3Bは、新しいモデルとしてアクティブ化されたパラメーターの約10倍のQWQ-32Bを上回りました。このような高度な機能により、これらのモデルは幅広いアプリケーションに最適な選択肢であることが証明されています。この記事では、すべてのQWEN3モデルの機能を調査し、それらを使用してRAGシステムとAIエージェントを構築する方法を学びます。

目次

  • QWEN3とは何ですか?
  • QWEN3の主要な機能
  • APIを介してQWEN3モデルにアクセスする方法
  • QWEN3を使用してAIソリューションを強化します
    • 前提条件
    • QWEN3を使用してAIエージェントを構築します
    • QWEN3を使用してRAGシステムを構築します
  • QWEN3のアプリケーション
  • 結論
  • よくある質問

QWEN3とは何ですか?

QWEN3は、QWENファミリーの最新の大規模な言語モデル(LLMS)シリーズであり、8つの異なるモデルで構成されています。これらには、QWEN3-235B-A22B、QWEN3-30B-A3B、QWEN3-32B、QWEN3-14B、QWEN3-8B、QWEN3-4B、QWEN3-1.7B、およびQWEN3-0.6Bが含まれます。これらすべてのモデルはApache 2.0ライセンスの下でリリースされ、個人、開発者、および企業が自由に利用できるようにします。

これらのモデルのうち6つは密集していますが、推論とトレーニングの時点ですべてのパラメーターを積極的に使用していますが、そのうち2つはオープンウェイトです。

  • QWEN3-235B-A22B: 2,350億パラメーターを備えた大きなモデル、そのうち220億はアクティブ化されたパラメーターです。
  • QWEN3-30B-A3B:合計300億パラメーターと30億のアクティブ化されたパラメーターを備えたより小さなMOE。

8つのQWEN3モデルすべての詳細な比較を次に示します。

モデル レイヤー ヘッド(Q/kv) タイ埋め込み コンテキストの長さ
QWEN3-0.6B 28 16/8 はい 32K
QWEN3-1.7B 28 16/8 はい 32K
QWEN3-4B 36 32/8 はい 32K
QWEN3-8B 36 32/8 いいえ 128K
QWEN3-14B 40 40/8 いいえ 128K
QWEN3-32B 64 64/8 いいえ 128K
QWEN3-30B-A3B 48 32/4 いいえ 128K
QWEN3-235B-A22B 94 64/4 いいえ 128K

これがテーブルの言うことです:

  • レイヤー:レイヤーは、使用される変圧器ブロックの数を表します。これには、マルチヘッドの自己関節メカニズム、フィードフォワードネットワーク、位置エンコード、層の正規化、および残留接続が含まれます。したがって、QWEN3-30B-A3Bには48層があると言うと、モデルが順番にまたは並行して積み重ねられた48の変圧器ブロックを使用していることを意味します。
  • ヘッド:トランスはマルチヘッドの注意を使用します。これは、データから新しい側面を学習するために、注意メカニズムをいくつかのヘッドに分割します。ここで、Q/KVは次のことを表します。
    • Q(クエリヘッド):クエリの生成に使用される注意ヘッドの総数。
    • KV(キーと値):注意ブロックごとにキー/バリューヘッドの数。

注:キー、クエリ、および値のこれらの注意ヘッドは、自己関節によって生成されるキー、クエリ、および値ベクトルとはまったく異なります。

また読む:QWEN3モデル:アクセス、パフォーマンス、機能、アプリケーションの方法

QWEN3の主要な機能

QWEN3モデルの主要な機能の一部を次に示します。

  1. トレーニング前:トレーニング前のプロセスは3つの段階で構成されています。
    • 最初の段階では、このモデルは、コンテキスト長の4Kトークンを持つ30兆以上のトークンで前提とされていました。これにより、モデルの基本的な言語スキルと一般的な知識が教えられました。
    • 第2段階では、STEM、コーディング、推論タスクなどの知識集約型データの割合を増やすことにより、データの品質が向上しました。その後、モデルはさらに5兆トークンで訓練されました。
    • 最終段階では、コンテキストの長さを32Kトークンに増やすことにより、高品質の長いコンテキストデータが使用されました。これは、モデルがより長い入力を効果的に処理できるようにするために行われました。
  1. トレーニング後:段階的な推論と迅速な対応の両方が可能なハイブリッドモデルを開発するために、4段階のトレーニングパイプラインが実装されました。これは次のとおりです。
    • 長い考え方(COT)
    • 推論ベースの強化学習(RL)
    • 思考モードの融合
    • 一般RL
  1. ハイブリッド思考モード: QWEN3モデルは、2つの新しいモードを備えた問題解決にハイブリッドアプローチを使用します。
    • 思考モード:このモードでは、モデルは複雑な問題ステートメントを小さくて手続き的な手順に分割して解決することで時間がかかります。
    • 非思考モード:このモードでは、モデルは迅速な結果を提供し、より単純な質問に最も適しています。
  1. 多言語サポート: QWEN3モデルは119の言語と方言をサポートしています。これにより、世界中のユーザーがこれらのモデルの恩恵を受けるのに役立ちます。
  2. 即興エージェント機能: QWENは、モデルコンテキストプロトコル(MCP)もサポートするために、より良いコーディングおよびエージェント機能のためにQWEN3モデルを最適化しました。

APIを介してQWEN3モデルにアクセスする方法

QWEN3モデルを使用するには、OpenRouter APIを使用してAPIを介してアクセスします。これがそれを行う方法です:

  1. OpenRouterでアカウントを作成し、モデル検索バーに移動して、そのモデルのAPIを見つけます。

QWEN3でRAGシステムとAIエージェントを構築する方法

  1. 選択したモデルを選択し、ランディングページの[APIキーの作成]をクリックして、新しいAPIを生成します。

QWEN3でRAGシステムとAIエージェントを構築する方法

QWEN3を使用してAIソリューションを強化します

このセクションでは、QWEN3を使用してAIアプリケーションを構築するプロセスを実行します。最初に、モデルを使用してAI搭載のトラベルプランナーエージェントを作成し、次にLangchainを使用してQ/Aラグボットを作成します。

前提条件

QWEN3を使用して実際のAIソリューションを構築する前に、まず次のような基本的な前提条件をカバーする必要があります。

  • コマンドプロンプトまたは端末に精通し、ターミナルを通過する機能。
  • 環境変数を設定する機能。
  • pythonをインストールする必要があります:https://www.python.org/downloads/
  • Langchainの基本に関する知識:https://www.langchain.com/

QWEN3を使用してAIエージェントを構築します

このセクションでは、QWEN3を使用して、訪問している都市または場所の主要な移動スポットを提供するAI搭載の旅行代理店を作成します。また、エージェントがインターネットを検索して更新された情報を見つけ、通貨変換を可能にするツールを追加できるようにします。

ステップ1:ライブラリとツールのセットアップ

まず、エージェントの構築に必要な必要なライブラリとツールをインストールしてインポートします。

 !ピップインストールLangchain Langchain-Community Openai Duckduckgo-Search
langchain.chat_modelsからChatopenaiをインポートします
langchain.agentsインポートツールから
langchain.toolsからImport duckduckgosearchrun
langchain.agentsからIntialize_Agentをインポートします


LLM = Chatopenai(
   base_url = "https://openrouter.ai/api/v1"、
   api_key = "your_api_key"、
   Model = "QWEN/QWEN3-235B-A22B:無料"
))
#ウェブ検索ツール
検索= duckduckgosearchrun()


#DestinationAgentのツール
def get_destinations(宛先):
   return search.run(f "{Destination}のトップ3観光スポット")


DestinationTool = Tool(
   name = "Destination Procemender"、
   func = get_destinations、
   説明= "都市で訪れる最高の場所を見つける"
))


#CurrencyAgentのツール
def convert_usd_to_inr(query):
   額= [sprit()のsのsのfloat(s)s.replace( '。'、 ''、1).isdigit()]]
   金額の場合:
       return f "{rument [0]} usd = {amont [0] * 83.2:.2f} inr"
   「金額を解析できませんでした」。


CurrencyTool = Tool(
   name = "Currency Converter"、
   func = convert_usd_to_inr、
   説明= "静的レートに基づいてUSDをINRに変換します"
))
ログイン後にコピー
  • search_tool: duckduckgosearchrun()を使用すると、エージェントはWeb検索を使用して、人気のある観光スポットに関するリアルタイム情報を取得できます。
  • DestinationTool: get_destinations()関数を適用します。これは、検索ツールを使用して、特定の都市の上位3つの観光スポットを取得します。
  • CurrencyTool: convert_usd_to_inr()関数を使用して、価格をUSDからINRに変換します。関数の「INR」を変更して、選択した通貨に変換できます。

また読む:Huggingface、Langchain、およびMistralaiと一緒に旅行アシスタントチャットボットを構築する

ステップ2:エージェントの作成

すべてのツールを初期化したので、ツールを使用して旅行の計画を提供するエージェントの作成に進みましょう。

ツール= [DestinationTool、currencyTool]


agent = initialize_agent(
   ツール=ツール、
   LLM = LLM、
   agent_type = "zero-shot-reactscription"、
   verbose = true
))
def trip_planner(市、usd_budget):
   dest = get_destinations(都市)
   inr_budget = convert_usd_to_inr(f "{usd_budget} usd to inr")
   f "" "これがあなたの旅行計画です:


*{city}のトップスポット*:
{dest}
*予算*:
{inr_budget}
あなたの日帰り旅行をお楽しみください! "" "
ログイン後にコピー
  • intialize_agent:この関数は、ゼロショット反応アプローチを使用してLangchainを持つエージェントを作成します。これにより、エージェントはツールの説明を理解できます。
  • agent_type: 「ゼロショット反応デスクリプト」により、エージェントLLMは、ツールの説明と入力を使用して、事前知識なしに特定の状況で使用すべきツールを決定することができます。
  • verbose: verboseは、エージェントの思考プロセスのログを可能にするため、呼び出されたすべてのインタラクションやツールを含む、エージェントが行う各決定を監視できます。
  • TRIP_PLANNER:これは、エージェントに依存するのではなく、手動でツールを呼び出すPython関数です。これにより、ユーザーは特定の問題に最適なツールを選択できます。

ステップ3:エージェントの初期化

このセクションでは、エージェントを初期化し、その応答を観察します。

 #エージェントを初期化します
City = "Delhi"
usd_budget = 8500


#マルチエージェントプランナーを実行します
response = agent.run(f "{usd_budget} usdの予算で{city}への日帰り旅行を計画する")
iPython.displayからインポートマークダウン、ディスプレイ
ディスプレイ(マークダウン(応答))
ログイン後にコピー
  • エージェントの呼び出し: agent.run()は、プロンプトを介してユーザーの意図を使用し、旅行を計画します。

出力

QWEN3でRAGシステムとAIエージェントを構築する方法

QWEN3を使用してRAGシステムを構築します

このセクションでは、知識ベースから関連する入力ドキュメント内のクエリに答えるRAGボットを作成します。これにより、QWEN/QWEN3-235B-A22Bを使用した有益な応答が得られます。また、システムはLangchainを使用して、正確でコンテキストを意識した応答を生成します。

ステップ1:ライブラリとツールのセットアップ

まず、RAGシステムの構築に必要な必要なライブラリとツールをインストールおよびインポートします。

 !ピップインストールlangchain langchain-community langchain-core openai tiktoken chromadb cente-transformers duckduckgo-search
langchain_community.document_loadersからtextloaderをインポートします
langchain.text_splitterからImport charactesTextSplitterから
langchain_community.vectorstoresからImport Chromaから
langchain.embeddingsからImport Huggingfacembeddingsから
langchain.chainsからimport retirevalqaから
langchain.chat_modelsからChatopenaiをインポートします
#ドキュメントをロードします
loader = textloader( "/content/my_docs.txt")
docs = roader.load()
ログイン後にコピー
  • ロードドキュメント: Langchainの「TextLoader」クラスは、Q/A取得に使用されるPDF、TXT、またはDOCファイルのようにドキュメントをロードします。ここでは、my_docs.txtをアップロードしました。
  • ベクトルのセットアップの選択: ChromADBを使用して、Q/AプロセスのVectorデータベースから埋め込みを保存および検索しました。

ステップ2:埋め込みの作成

ドキュメントをロードしたので、検索プロセスを緩和するのに役立つ埋め込みの作成に進みましょう。

 #チャンクに分かれます
splitter = charateTextSplitter(chunk_size = 300、chunk_overlap = 50)
chunks = splitter.split_documents(docs)


#ハギングフェイスモデルに埋め込まれています
埋め込み= huggingfacembedings(model_name = "all-minilm-l6-v2")
db = chroma.from_documents(チャンク、埋め込み=埋め込み)


#OpenRouterからQWen LLMをセットアップします
LLM = Chatopenai(
   base_url = "https://openrouter.ai/api/v1"、
   api_key = "your_api_key"、
   Model = "QWEN/QWEN3-235B-A22B:無料"
))


#ラグチェーンを作成します
retriever = db.as_retriever(search_kwargs = {"k":2})
rag_chain = retirevalqa.from_chain_type(llm = llm、retriver = retirever)
ログイン後にコピー
  • ドキュメントの分割: CharateTextSplitter()は、テキストを小さなチャンクに分割します。これは主に2つのことに役立ちます。第一に、検索プロセスを緩和し、第二に、chunk_overlapを介して以前のチャンクからコンテキストを保持するのに役立ちます。
  • 埋め込みドキュメント:埋め込みテキストを、各トークンの設定された寸法の埋め込みベクトルに変換します。ここでは、300のChunk_sizeを使用しました。つまり、すべての単語/トークンが300寸法のベクトルに変換されます。これで、このベクトルの埋め込みは、チャンクの他の単語に関して、その単語のすべての文脈情報を備えています。
  • RAGチェーン: RAGチェーンは、ChromadBとLLMを組み合わせてRAGを形成します。これにより、ドキュメントやモデルから文脈的に意識した回答を取得できます。

ステップ3:RAGシステムの初期化

#質問してください
response = rag_chain.invoke({"query": "qwenをmcpで使用するにはどうすればよいですか。必要なコードスニペットと一緒に段階的なガイドを教えてください})
display(markdown(response ['result']))
ログイン後にコピー
  • クエリ実行: RAG_CHAIN_INVOKE()メソッドは、ユーザーのクエリをRAGシステムに送信し、ドキュメントストア(Vector DB)から関連するコンテキストアウェアチャンクを取得し、コンテキスト対応の回答を生成します。

出力

QWEN3でRAGシステムとAIエージェントを構築する方法

QWEN3でRAGシステムとAIエージェントを構築する方法

QWEN3でRAGシステムとAIエージェントを構築する方法

ここで完全なコードを見つけることができます。

QWEN3のアプリケーション

業界全体でQWEN3のいくつかのアプリケーションを次に示します。

  • 自動コーディング: QWEN3は、コードのドキュメントを生成、デバッグ、および提供することができます。これにより、開発者は手動の努力なしでエラーを解決できます。 22Bパラメーターモデルはコーディングに優れており、DeepSeek-R1、Gemini 2.5 Pro、OpenaiのO3-Miniなどのモデルに匹敵します。
  • 教育と研究: QWEN3アーカイブ数学、物理学、および論理的推論の問題解決における高精度。また、Gemini 2.5 Proに匹敵しますが、OpenaiのO1、O3-Mini、Deepseek-R1、Grok 3ベータなどのモデルで優れています。
  • エージェントベースのツールの統合: QWEN3は、外部ツール、API、およびMCPをマルチステップおよびマルチエージェントワークフローに使用して、エージェントの相互作用をさらに簡素化することにより、AIエージェントタスクをリードします。
  • 高度な推論タスク: QWEN3は、広範な思考機能を使用して、最適で正確な応答を提供します。このモデルは、複雑なタスクのチェーンオブ考えの推論と、最適化された速度のために非思考モードを使用します。

結論

この記事では、QWEN3を搭載したエージェントAIおよびRAGシステムを構築する方法を学びました。 QWEN3の高性能、多言語サポート、および高度な推論機能により、知識の検索とエージェントベースのタスクに強い選択肢となります。 QWEN3をRAGおよびエージェントパイプラインに統合することにより、正確でコンテキスト対応、スムーズな応答を得ることができ、AI搭載システムの実際のアプリケーションの強力な競争相手になります。

よくある質問

Q1。 QWEN3は、RAGの他のLLMSとどのように異なりますか?

A. QWEN3には、応答に動的な変更を加えることができるハイブリッド推論機能があり、検索と複雑な分析の両方のRAGワークフローを最適化できるようにします。

Q2。 RAGを統合するために必要なツールは何ですか?

A.主に、ベクトルデータベース、埋め込みモデル、Langchainワークフロー、APIが含まれてモデルにアクセスします。

Q3。 QWEN3は、エージェントワークフローの多段階ツールチェーンを許可できますか?

はい、QWen-Agentビルトインツール呼び出しテンプレートを使用すると、Web検索、データ分析、レポート生成などのシーケンシャルツール操作を解析および有効にすることができます。

Q4。 QWEN3エージェント応答のレイテンシを減らす方法は?

A.多くの方法でレイテンシを減らすことができますが、それらのいくつかは次のとおりです。
1。QWEN3-30B-A3BなどのMOEモデルの使用。これには、30億個のアクティブパラメーターしかありません。
2。GPU最適化された推論を使用します。

Q5。 QWEN3エージェントを実装する際の一般的なエラーは何ですか?

A.一般的なエラーには以下が含まれます。
1。JSONのフォーマットやinitなどのMCPサーバーの初期化障害。
2。ツール応答ペアリングエラー。
3。コンテキストウィンドウオーバーフロー。

以上がQWEN3でRAGシステムとAIエージェントを構築する方法の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

Video Face Swap

Video Face Swap

完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

Meta Llama 3.2を始めましょう - 分析Vidhya Meta Llama 3.2を始めましょう - 分析Vidhya Apr 11, 2025 pm 12:04 PM

メタのラマ3.2:マルチモーダルとモバイルAIの前進 メタは最近、ラマ3.2を発表しました。これは、モバイルデバイス向けに最適化された強力なビジョン機能と軽量テキストモデルを特徴とするAIの大幅な進歩です。 成功に基づいてo

10生成AIコーディング拡張機能とコードのコードを探る必要があります 10生成AIコーディング拡張機能とコードのコードを探る必要があります Apr 13, 2025 am 01:14 AM

ねえ、忍者をコーディング!その日はどのようなコーディング関連のタスクを計画していますか?このブログにさらに飛び込む前に、コーディング関連のすべての問題について考えてほしいです。 終わり? - &#8217を見てみましょう

AVバイト:Meta' s llama 3.2、GoogleのGemini 1.5など AVバイト:Meta' s llama 3.2、GoogleのGemini 1.5など Apr 11, 2025 pm 12:01 PM

今週のAIの風景:進歩、倫理的考慮、規制の議論の旋風。 Openai、Google、Meta、Microsoftのような主要なプレーヤーは、画期的な新しいモデルからLEの重要な変化まで、アップデートの急流を解き放ちました

従業員へのAI戦略の販売:Shopify CEOのマニフェスト 従業員へのAI戦略の販売:Shopify CEOのマニフェスト Apr 10, 2025 am 11:19 AM

Shopify CEOのTobiLütkeの最近のメモは、AIの能力がすべての従業員にとって基本的な期待であると大胆に宣言し、会社内の重大な文化的変化を示しています。 これはつかの間の傾向ではありません。これは、pに統合された新しい運用パラダイムです

GPT-4o vs Openai O1:新しいOpenaiモデルは誇大広告に値しますか? GPT-4o vs Openai O1:新しいOpenaiモデルは誇大広告に値しますか? Apr 13, 2025 am 10:18 AM

導入 Openaiは、待望の「Strawberry」アーキテクチャに基づいて新しいモデルをリリースしました。 O1として知られるこの革新的なモデルは、推論能力を強化し、問題を通じて考えられるようになりました

ビジョン言語モデル(VLM)の包括的なガイド ビジョン言語モデル(VLM)の包括的なガイド Apr 12, 2025 am 11:58 AM

導入 鮮やかな絵画や彫刻に囲まれたアートギャラリーを歩くことを想像してください。さて、各ピースに質問をして意味のある答えを得ることができたらどうでしょうか?あなたは尋ねるかもしれません、「あなたはどんな話を言っていますか?

ラマ3.2を実行する3つの方法-Analytics Vidhya ラマ3.2を実行する3つの方法-Analytics Vidhya Apr 11, 2025 am 11:56 AM

メタのラマ3.2:マルチモーダルAIパワーハウス Metaの最新のマルチモーダルモデルであるLlama 3.2は、AIの大幅な進歩を表しており、言語理解の向上、精度の向上、および優れたテキスト生成機能を誇っています。 その能力t

最高の迅速なエンジニアリング技術の最新の年次編集 最高の迅速なエンジニアリング技術の最新の年次編集 Apr 10, 2025 am 11:22 AM

私のコラムに新しいかもしれない人のために、具体化されたAI、AI推論、AIのハイテクブレークスルー、AIの迅速なエンジニアリング、AIのトレーニング、AIのフィールディングなどのトピックなど、全面的なAIの最新の進歩を広く探求します。

See all articles