目錄
主要特點:
首頁 後端開發 Python教學 在 Python 中使用 Jina.ai 和 FastMCP 建構模型上下文協定伺服器

在 Python 中使用 Jina.ai 和 FastMCP 建構模型上下文協定伺服器

Jan 05, 2025 am 07:25 AM

在這篇文章中,我們將討論模型上下文協議,為什麼它可能很重要,並逐步構建MCP 伺服器來幫助我們與Jina.ai 對話,並能夠在Claude 中添加網絡搜索和事實檢查功能使用Python和FastMCP 的桌面。

模型上下文協定

Anthropic去年感恩節前後宣布。儘管它引起了一些關注,但考慮到它可能是開發下一層人工智慧軟體堆疊的關鍵墊腳石,它所獲得的認可可能還不夠。

什麼

模型上下文協定(MCP)是專為大型語言模型(LLM)設計的標準化通訊協定。

將其視為「AI 的 HTTP」——就像 HTTP 標準化了 Web 瀏覽器與 Web 伺服器的通訊方式一樣,MCP 標準化了 LLM 應用程式與工具和資料來源的通訊方式。

為什麼我們需要 MCP?

目前LLM的發展面臨幾個障礙:

  1. 工具整合複雜度:每個LLM服務(如OpenAI、Anthropic等)都有其實現工具呼叫和函數呼叫的方式,使得建立可移植工具變得複雜。

  2. 上下文管理:法學碩士需要存取各種資料來源和工具,但安全有效地管理此存取權限一直具有挑戰性。

  3. 標準化:如果沒有標準協議,開發人員必須為他們想要支援的每個 LLM 平台重建整合層。

MCP 透過提供以下功能來解決這些挑戰:

  • 向法學碩士公開工具和數據的標準化方法
  • 安全的客戶端-伺服器架構
  • 無論底層 LLM 如何,都有一致的介面

MCP 如何運作?

MCP 遵循客戶端-伺服器架構,有三個主要元件:

  1. MCP 伺服器:公開的服務:

    • 工具(LLM可以呼叫的函數)
    • 資源(資料來源)
    • 提示(範本說明)
    • 上下文(動態資訊)
  2. MCP 客戶端:應用程式連接到 MCP 伺服器並管理 LLM 和伺服器之間的通訊。客戶端支援還處於早期階段,到目前為止,只有少數工具可以實現協議規範的任何部分,並且尚無客戶端支援一些功能。

Building a Model Context Protocol Server using Jina.ai and FastMCP in Python

當然還有法學碩士...

工作流程很簡單:

  1. MCP 伺服器註冊其功能(工具、資源等)
  2. 客戶端連線到伺服器
  3. 法學碩士可以透過標準化介面使用這些功能

傳輸協定

  • 多種運輸機制
    • SSE(伺服器發送事件)
      • 透過 HTTP 雙向通信,伺服器程序與客戶端隔離
    • Stdio(標準輸入/輸出)
      • 透過標準輸入/輸出管道進行通信,伺服器程序本質上是客戶端的子程序

安全

安全局勢更加微妙。雖然使用 stdio 傳輸的伺服器通常與用戶端位於相同位置,因此 API 金鑰不一定會暴露在網路上。在我看來,它們確實似乎相當隨意地被傳播。

這些金鑰需要在伺服器啟動時載入到客戶端,以便將它們傳遞給子進程,它們甚至出現在桌面應用程式日誌中,這是…令人擔憂的。

API 金鑰的廣泛使用是影響 Gen AI 服務、平台和工具的更廣泛問題。 Okta 和 Auth0 等公司正在開發一種無需依賴金鑰即可管理和授權 Gen AI 的解決方案。

軟體開發工具包

Anthropic 官方支援 TypeScript、Python 和 Kotlin 的低階 SDK。最近創建的一些樣板包裝器已經涵蓋了一些樣板文件,並具有其他不錯的功能,例如用於調試、檢查和在客戶端上安裝伺服器的 CLI,以使開發 MCP 伺服器變得更容易。

FastMCP 入門

Building a Model Context Protocol Server using Jina.ai and FastMCP in Python 傑洛文 / 快速MCP

建構模型上下文協定伺服器的快速、Pythonic 方法?

FastMCP?

建構 MCP 伺服器的快速、Python 方式。

Building a Model Context Protocol Server using Jina.ai and FastMCP in Python Building a Model Context Protocol Server using Jina.ai and FastMCP in Python Building a Model Context Protocol Server using Jina.ai and FastMCP in Python

模型上下文協定 (MCP) 伺服器是一種為 LLM 提供上下文和工具的全新標準化方式,FastMCP 讓建置 MCP 伺服器變得簡單直觀。使用乾淨的 Python 程式碼建立工具、公開資源並定義提示:

# demo.py

from fastmcp import FastMCP


mcp = FastMCP("Demo ?")


@<span>mcp.tool()</span>
def add(a: int, b: int) -> int:
    """Add two numbers"""
    return a + b
登入後複製
登入後複製
登入後複製
進入全螢幕模式 退出全螢幕模式

就是這樣!透過執行以下命令授予 Claude 存取伺服器的權限:

fastmcp install demo.py
登入後複製
登入後複製
登入後複製
進入全螢幕模式 退出全螢幕模式

FastMCP 處理所有複雜的協定細節和伺服器管理,因此您可以專注於建立出色的工具。它被設計為高級且Pythonic - 在大多數情況下,裝飾一個函數就足夠了。

主要特點:

  • 快速:進階介面意味著更少的程式碼和更快的開發
  • 簡單
在 GitHub 上查看

FastMCP 就是這樣一個框架。我們現在將探討如何創建一個幾乎實用的工具來閱讀網站、透過網路回答搜尋查詢以及事實檢查資訊。我們將使用 Jina.ai。

這是一項非常巧妙的服務,提供了一個結合了“嵌入、重新排名和小語言模型”的“搜尋基礎平台”,以幫助企業建立 Gen AI 和多模式搜尋體驗。

先決條件

  • 紫外線

您需要安裝 uv。這是建立和管理 Python 專案的推薦方法。它是一個相對較新但令人興奮的 Python 工具鏈 astral.sh 的一部分。我建議你檢查一下。

它的目標是成為管理專案、依賴項、虛擬環境、版本、linting 以及執行 Python 腳本和模組的一站式商店。它是用 Rust 寫的。你會用這些資訊做什麼?

  • 克勞德桌面應用程式

您還需要安裝 Claude 桌面應用程式。就我們的目的而言,Claude 桌面應用程式將充當 MCP 用戶端,並且是 Anthropic 的關鍵目標用戶端。

Building a Model Context Protocol Server using Jina.ai and FastMCP in Python 阿斯拉加布 / mcp-jinaai-閱讀器

Jina.ai Reader API 的模型上下文協定 (MCP) 伺服器

Jina.ai Reader API 的 MCP 伺服器

完整演練在這裡:

https://dev.to/asragab/building-a-model-context-protocol-server-using-jinaai-and-fastmcp-in-python-1od8


在 GitHub 上查看


項目設定

使用 uv 您可以使用以下方式初始化項目:

# demo.py

from fastmcp import FastMCP


mcp = FastMCP("Demo ?")


@<span>mcp.tool()</span>
def add(a: int, b: int) -> int:
    """Add two numbers"""
    return a + b
登入後複製
登入後複製
登入後複製

這將建立一個名為 mcp-jinaai-reader 的資料夾和一個 .python-version 以及 pyproject.toml。

fastmcp install demo.py
登入後複製
登入後複製
登入後複製

這將創建一個與我們選擇的 python 版本相對應的虛擬環境。

建立環境後,它將提供有關如何為會話啟動它的說明。

uv init mcp-jinaai-reader --python 3.11
登入後複製
登入後複製

新增一個 src 目錄並安裝我們需要的一個依賴

cd mcp-jinaai-reader
uv venv 
登入後複製
登入後複製

在專案根目錄建立一個 .env 檔案並將您的 JINAAI_API_KEY 新增到該檔案中。您可以透過在 Jina 註冊來免費獲得一份。一般來說,您的伺服器需要執行的任何 API 金鑰或其他環境變數都會放入此文件中。

source .venv/bin/activate
登入後複製
登入後複製

在 src 目錄中,建立一個 server.py 檔案...我們應該可以取得程式碼。

伺服器程式碼

uv add fastmcp
登入後複製
登入後複製

從導入開始:httpx,將是我們在這裡用來發出 http 請求的函式庫;我們需要 urlparse 方法來幫助我們確定字串是否可能是有效的 URL。

JINAAI_API_KEY=jina_*************
登入後複製

這會初始化伺服器;第一個參數是工具的名稱。我不是 100% 確定為什麼 uvicorn 需要在這裡明確添加為依賴項,因為它是 FastMCP 的傳遞依賴項,但它似乎確實是必需的。

這可能是由於 fastmcp cli(稍後會詳細介紹)安裝伺服器的方式造成的。如果您還有其他依賴項,則必須在此處新增它們,以便客戶端知道您需要在執行客戶端之前安裝它們;我們稍後會看到它是如何運作的。

from fastmcp import FastMCP
import httpx
from urllib.parse import urlparse
import os
登入後複製

您可能可以在這裡找出模式,但 Jina 使用不同的子網域來路由特定請求。搜尋端點需要一個查詢,讀取器端點需要一個 URL,而接地端點可以向 llm 提供特定的回應或答案。

接地是一個更大的主題,與 RAG 和微調等其他技術一起使用,以幫助法學碩士減少幻覺並改善決策。

我們的第一個工具

# Initialize the MCP server
mcp = FastMCP("search", dependencies=["uvicorn"])
登入後複製

註釋@mcp.tool 完成了很多繁重的工作。庫中存在類似的資源和提示註釋。此註解提取函數簽名和傳回類型的詳細信息,以建立供 llm 呼叫該工具的輸入和輸出架構。它配置該工具,以便客戶端了解伺服器的功能。它還將函數呼叫註冊為已配置工具的處理程序。

接下來,您會注意到該函數是非同步的。不需要運行時配置,也不需要 asyncio.run 的東西。如果出於某種原因您需要將伺服器作為獨立服務運行,您確實需要自己處理其中的一些問題。 FastMCP 儲存庫中有一個範例說明如何執行此操作。

函數體相當無趣;它驗證是否正在接收 URL、設定適當的標頭、呼叫 Jina 端點並傳回文字。

# demo.py

from fastmcp import FastMCP


mcp = FastMCP("Demo ?")


@<span>mcp.tool()</span>
def add(a: int, b: int) -> int:
    """Add two numbers"""
    return a + b
登入後複製
登入後複製
登入後複製

第二個工具

fastmcp install demo.py
登入後複製
登入後複製
登入後複製

就是這樣...

測試與調試

uv init mcp-jinaai-reader --python 3.11
登入後複製
登入後複製

執行上述命令將啟動 mcp 檢查器,它是 sdk 提供的一個工具,用於測試和偵錯伺服器回應。 --with-editable 標誌可讓您對伺服器進行更改,而無需重新啟動檢查器(強烈建議)

你應該看到:

cd mcp-jinaai-reader
uv venv 
登入後複製
登入後複製

預設情況下,檢查器在連接埠 5173 上運行,而伺服器(您剛剛編寫的程式碼)將在連接埠 3000 上運行,您可以透過在呼叫前設定 SERVER_PORT 和 CLIENT_PORT 來變更此設定。

source .venv/bin/activate
登入後複製
登入後複製

督察

Building a Model Context Protocol Server using Jina.ai and FastMCP in Python

如果一切順利你應該看到類似下面的內容,在左側你可以添加你需要的環境變量,這裡 JINAAI_API_KEY 是唯一的。

如果您單擊頂部功能表列上的“工具”,然後單擊“列出工具”,您應該列出我們創建的工具,請注意文檔字串作為該工具的描述。

點擊特定工具將彈出文字框,供您輸入呼叫該工具所需的參數。

安裝伺服器

當您對一切按預期工作感到滿意後,您現在就可以在 Claude 桌面應用程式用戶端上安裝伺服器了。

uv add fastmcp
登入後複製
登入後複製

會這樣做,我相信將來它會支援其他客戶端,但現在,這就是你需要做的。 -f .env 會將環境變數傳遞給應用程式用戶端。

這在幕後的作用是更新 claude_desktop_config.json 並提供執行伺服器所需的命令和參數。預設情況下,這使用 uv ,它必須在您的 PATH 上可用。

如果您現在打開 Claude 桌面應用程序,然後轉到功能表列並單擊 Claude >設置,然後單擊開發人員,您應該會看到初始化伺服器時設置的工具的名稱。

Building a Model Context Protocol Server using Jina.ai and FastMCP in Python

點選它應該會顯示它的配置。您不僅可以了解它是如何執行的,而且在「進階選項」中將看到已設定的環境變數。

你也可以直接編輯這個配置,但我不一定在這裡推薦它。

運行它

如果一切順利,當您進入桌面應用程式時,您應該不會看到任何錯誤(如果出現錯誤,則轉到「設定」應該會為您提供一個按鈕來檢查日誌並從那裡進行調查) 。

Building a Model Context Protocol Server using Jina.ai and FastMCP in Python

此外,您應該會看到一個錘子符號,其中包含您可以使用的單個工具的數量(注意:除非您安裝了其他 MCP 伺服器,否則您的工具可能應該是兩個)

您不像平常那​​樣直接呼叫該工具,而是與應用程式聊天,當它遇到推斷該工具有幫助的情況時,它會詢問您是否要使用它。這裡不需要額外的程式碼或配置。

我認為它依賴工具名稱和描述來決定它是否合適,因此值得為該工具的功能製作一個清晰簡單的描述。

您將收到以下提示:

Building a Model Context Protocol Server using Jina.ai and FastMCP in Python

你可以與它“聊天”,不可否認,編寫的工具有時會遇到問題。有時它會決定無法上網,有時無法檢索結果,但有時您會得到以下結果:

Building a Model Context Protocol Server using Jina.ai and FastMCP in Python

這有一個自然的流程,它讀取頁面,提供摘要,然後你要求它轉到一篇特定的文章並閱​​讀該文章。

最後的註釋

希望這能讓您對 MCP 伺服器有一些了解。有很多內容可供閱讀和觀看,但我推薦的另一個網站是glama.ai,他們保留了一份相當全面的可用MCP 伺服器清單供下載和試用,其中包括比我們的玩具範例更可靠的其他網絡搜尋工具。看看吧,感謝您的關注。

以上是在 Python 中使用 Jina.ai 和 FastMCP 建構模型上下文協定伺服器的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

熱門話題

Java教學
1677
14
CakePHP 教程
1430
52
Laravel 教程
1333
25
PHP教程
1278
29
C# 教程
1257
24
Python與C:學習曲線和易用性 Python與C:學習曲線和易用性 Apr 19, 2025 am 12:20 AM

Python更易學且易用,C 則更強大但複雜。 1.Python語法簡潔,適合初學者,動態類型和自動內存管理使其易用,但可能導致運行時錯誤。 2.C 提供低級控制和高級特性,適合高性能應用,但學習門檻高,需手動管理內存和類型安全。

學習Python:2小時的每日學習是否足夠? 學習Python:2小時的每日學習是否足夠? Apr 18, 2025 am 12:22 AM

每天學習Python兩個小時是否足夠?這取決於你的目標和學習方法。 1)制定清晰的學習計劃,2)選擇合適的學習資源和方法,3)動手實踐和復習鞏固,可以在這段時間內逐步掌握Python的基本知識和高級功能。

Python vs.C:探索性能和效率 Python vs.C:探索性能和效率 Apr 18, 2025 am 12:20 AM

Python在開發效率上優於C ,但C 在執行性能上更高。 1.Python的簡潔語法和豐富庫提高開發效率。 2.C 的編譯型特性和硬件控制提升執行性能。選擇時需根據項目需求權衡開發速度與執行效率。

Python vs. C:了解關鍵差異 Python vs. C:了解關鍵差異 Apr 21, 2025 am 12:18 AM

Python和C 各有優勢,選擇應基於項目需求。 1)Python適合快速開發和數據處理,因其簡潔語法和動態類型。 2)C 適用於高性能和系統編程,因其靜態類型和手動內存管理。

Python標準庫的哪一部分是:列表或數組? Python標準庫的哪一部分是:列表或數組? Apr 27, 2025 am 12:03 AM

pythonlistsarepartofthestAndArdLibrary,herilearRaysarenot.listsarebuilt-In,多功能,和Rused ForStoringCollections,而EasaraySaraySaraySaraysaraySaraySaraysaraySaraysarrayModuleandleandleandlesscommonlyusedDduetolimitedFunctionalityFunctionalityFunctionality。

Python:自動化,腳本和任務管理 Python:自動化,腳本和任務管理 Apr 16, 2025 am 12:14 AM

Python在自動化、腳本編寫和任務管理中表現出色。 1)自動化:通過標準庫如os、shutil實現文件備份。 2)腳本編寫:使用psutil庫監控系統資源。 3)任務管理:利用schedule庫調度任務。 Python的易用性和豐富庫支持使其在這些領域中成為首選工具。

科學計算的Python:詳細的外觀 科學計算的Python:詳細的外觀 Apr 19, 2025 am 12:15 AM

Python在科學計算中的應用包括數據分析、機器學習、數值模擬和可視化。 1.Numpy提供高效的多維數組和數學函數。 2.SciPy擴展Numpy功能,提供優化和線性代數工具。 3.Pandas用於數據處理和分析。 4.Matplotlib用於生成各種圖表和可視化結果。

Web開發的Python:關鍵應用程序 Web開發的Python:關鍵應用程序 Apr 18, 2025 am 12:20 AM

Python在Web開發中的關鍵應用包括使用Django和Flask框架、API開發、數據分析與可視化、機器學習與AI、以及性能優化。 1.Django和Flask框架:Django適合快速開發複雜應用,Flask適用於小型或高度自定義項目。 2.API開發:使用Flask或DjangoRESTFramework構建RESTfulAPI。 3.數據分析與可視化:利用Python處理數據並通過Web界面展示。 4.機器學習與AI:Python用於構建智能Web應用。 5.性能優化:通過異步編程、緩存和代碼優

See all articles