使用 OpenVINO 和 Postgres 建立快速且有效率的語意搜尋系統
照片由 real-napster 在 Pixabay上
在我最近的一個專案中,我必須建立一個語義搜尋系統,該系統可以高效能擴展並為報告搜尋提供即時回應。我們在 AWS RDS 上使用 PostgreSQL 和 pgvector,並搭配 AWS Lambda 來實現這一目標。面臨的挑戰是允許用戶使用自然語言查詢而不是依賴死板的關鍵字進行搜索,同時確保響應時間在 1-2 秒甚至更短,並且只能利用 CPU 資源。
在這篇文章中,我將逐步介紹建立此搜尋系統的步驟,從檢索到重新排名,以及使用 OpenVINO 和智慧批次進行標記化進行的最佳化。
語義搜尋概述:檢索和重新排序
現代最先進的搜尋系統通常包含兩個主要步驟:檢索和重新排名。
1) 檢索: 第一步涉及根據使用者查詢檢索相關文件的子集。這可以使用預先訓練的嵌入模型來完成,例如 OpenAI 的小型和大型嵌入、Cohere 的嵌入模型或 Mixbread 的 mxbai 嵌入。檢索的重點是透過測量文件與查詢的相似性來縮小文檔池的範圍。
這是一個使用 Huggingface 的句子轉換器庫進行檢索的簡化示例,這是我最喜歡的庫之一:
from sentence_transformers import SentenceTransformer import numpy as np # Load a pre-trained sentence transformer model model = SentenceTransformer("sentence-transformers/all-MiniLM-L6-v2") # Sample query and documents (vectorize the query and the documents) query = "How do I fix a broken landing gear?" documents = ["Report 1 on landing gear failure", "Report 2 on engine problems"] # Get embeddings for query and documents query_embedding = model.encode(query) document_embeddings = model.encode(documents) # Calculate cosine similarity between query and documents similarities = np.dot(document_embeddings, query_embedding) # Retrieve top-k most relevant documents top_k = np.argsort(similarities)[-5:] print("Top 5 documents:", [documents[i] for i in top_k])
2)重新排名:檢索到最相關的文件後,我們使用交叉編碼器模型進一步提高這些文件的排名。此步驟會更準確地重新評估與查詢相關的每個文檔,並專注於更深入的上下文理解。
重新排名是有益的,因為它透過更精確地評估每個文件的相關性來增加額外的細化層。
這是使用 cross-encoder/ms-marco-TinyBERT-L-2-v2(一種輕量級交叉編碼器)進行重新排名的程式碼範例:
from sentence_transformers import CrossEncoder # Load the cross-encoder model cross_encoder = CrossEncoder("cross-encoder/ms-marco-TinyBERT-L-2-v2") # Use the cross-encoder to rerank top-k retrieved documents query_document_pairs = [(query, doc) for doc in documents] scores = cross_encoder.predict(query_document_pairs) # Rank documents based on the new scores top_k_reranked = np.argsort(scores)[-5:] print("Top 5 reranked documents:", [documents[i] for i in top_k_reranked])
識別瓶頸:標記化和預測的成本
在開發過程中,我發現在使用句子轉換器的預設設定處理 1,000 個報告時,標記化和預測階段花費了相當長的時間。這造成了效能瓶頸,特別是因為我們的目標是即時回應。
下面我使用 SnakeViz 分析了我的程式碼以視覺化效能:
如您所見,標記化和預測步驟異常緩慢,導致搜尋結果的提供出現嚴重延遲。總的來說,平均需要 4-5 秒。這是因為標記化和預測步驟之間存在阻塞操作。如果我們還添加其他操作,例如資料庫呼叫、過濾等,我們很容易就總共需要 8-9 秒。
使用 OpenVINO 最佳化效能
我面臨的問題是:我們可以讓它更快嗎? 答案是肯定的,透過利用 OpenVINO,一個針對 CPU 推理最佳化的後端。 OpenVINO 有助於加速英特爾硬體上的深度學習模型推理,我們在 AWS Lambda 上使用該硬體。
OpenVINO 最佳化的程式碼範例
以下是我如何將 OpenVINO 整合到搜尋系統中以加快推理速度:
from sentence_transformers import SentenceTransformer import numpy as np # Load a pre-trained sentence transformer model model = SentenceTransformer("sentence-transformers/all-MiniLM-L6-v2") # Sample query and documents (vectorize the query and the documents) query = "How do I fix a broken landing gear?" documents = ["Report 1 on landing gear failure", "Report 2 on engine problems"] # Get embeddings for query and documents query_embedding = model.encode(query) document_embeddings = model.encode(documents) # Calculate cosine similarity between query and documents similarities = np.dot(document_embeddings, query_embedding) # Retrieve top-k most relevant documents top_k = np.argsort(similarities)[-5:] print("Top 5 documents:", [documents[i] for i in top_k])
透過這種方法,我們可以獲得 2-3 倍的加速,將原來的 4-5 秒減少到 1-2 秒。完整的工作代碼位於 Github 上。
速度微調:批量大小和標記化
提高效能的另一個關鍵因素是最佳化標記化流程並調整批次大小和標記長度。透過增加批次大小(batch_size = 16)和減少令牌長度(max_length = 512),我們可以並行化令牌化並減少重複操作的開銷。在我們的實驗中,我們發現 16 到 64 之間的 batch_size 效果很好,任何更大的值都會降低效能。同樣,我們將 max_length 設為 128,如果報告的平均長度相對較短,則該值是可行的。透過這些更改,我們實現了 8 倍的整體加速,將重新排名時間縮短至 1 秒以下,即使在 CPU 上也是如此。
在實踐中,這意味著嘗試不同的批量大小和令牌長度,以找到資料速度和準確性之間的適當平衡。透過這樣做,我們看到回應時間顯著縮短,使得搜尋系統即使有 1,000 份報告也可擴展。
結論
透過使用 OpenVINO 並最佳化標記化和批次處理,我們能夠建立一個高效能語意搜尋系統,滿足僅 CPU 設定的即時要求。事實上,我們的整體速度提升了 8 倍。使用句子轉換器進行檢索與使用交叉編碼器模型進行重新排名相結合,創造了強大的、用戶友好的搜尋體驗。
如果您正在建立回應時間和運算資源受到限制的類似系統,我強烈建議您探索 OpenVINO 和智慧批次以釋放更好的效能。
希望您喜歡這篇文章。如果您覺得這篇文章有用,請給我一個贊,以便其他人也可以找到它,並與您的朋友分享。在 Linkedin 上關注我,以了解我的最新工作。感謝您的閱讀!
以上是使用 OpenVINO 和 Postgres 建立快速且有效率的語意搜尋系統的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

Python更易學且易用,C 則更強大但複雜。 1.Python語法簡潔,適合初學者,動態類型和自動內存管理使其易用,但可能導致運行時錯誤。 2.C 提供低級控制和高級特性,適合高性能應用,但學習門檻高,需手動管理內存和類型安全。

每天學習Python兩個小時是否足夠?這取決於你的目標和學習方法。 1)制定清晰的學習計劃,2)選擇合適的學習資源和方法,3)動手實踐和復習鞏固,可以在這段時間內逐步掌握Python的基本知識和高級功能。

Python在開發效率上優於C ,但C 在執行性能上更高。 1.Python的簡潔語法和豐富庫提高開發效率。 2.C 的編譯型特性和硬件控制提升執行性能。選擇時需根據項目需求權衡開發速度與執行效率。

Python和C 各有優勢,選擇應基於項目需求。 1)Python適合快速開發和數據處理,因其簡潔語法和動態類型。 2)C 適用於高性能和系統編程,因其靜態類型和手動內存管理。

pythonlistsarepartofthestAndArdLibrary,herilearRaysarenot.listsarebuilt-In,多功能,和Rused ForStoringCollections,而EasaraySaraySaraySaraysaraySaraySaraysaraySaraysarrayModuleandleandleandlesscommonlyusedDduetolimitedFunctionalityFunctionalityFunctionality。

Python在自動化、腳本編寫和任務管理中表現出色。 1)自動化:通過標準庫如os、shutil實現文件備份。 2)腳本編寫:使用psutil庫監控系統資源。 3)任務管理:利用schedule庫調度任務。 Python的易用性和豐富庫支持使其在這些領域中成為首選工具。

Python在科學計算中的應用包括數據分析、機器學習、數值模擬和可視化。 1.Numpy提供高效的多維數組和數學函數。 2.SciPy擴展Numpy功能,提供優化和線性代數工具。 3.Pandas用於數據處理和分析。 4.Matplotlib用於生成各種圖表和可視化結果。

Python在Web開發中的關鍵應用包括使用Django和Flask框架、API開發、數據分析與可視化、機器學習與AI、以及性能優化。 1.Django和Flask框架:Django適合快速開發複雜應用,Flask適用於小型或高度自定義項目。 2.API開發:使用Flask或DjangoRESTFramework構建RESTfulAPI。 3.數據分析與可視化:利用Python處理數據並通過Web界面展示。 4.機器學習與AI:Python用於構建智能Web應用。 5.性能優化:通過異步編程、緩存和代碼優
