OpenVINO 및 Postgres를 사용하여 빠르고 효율적인 의미 검색 시스템 구축
Pixabay의 real-napster가 찍은 사진
최근 프로젝트 중 하나에서는 고성능으로 확장할 수 있고 보고서 검색에 대한 실시간 응답을 제공할 수 있는 의미 검색 시스템을 구축해야 했습니다. 이를 달성하기 위해 AWS RDS의 pgVector와 AWS Lambda를 함께 사용하여 PostgreSQL을 사용했습니다. 문제는 사용자가 엄격한 키워드에 의존하는 대신 자연어 쿼리를 사용하여 검색할 수 있도록 하는 동시에 응답 시간이 1~2초 미만이고 CPU 리소스만 활용할 수 있도록 하는 것이었습니다.
이 게시물에서는 검색부터 순위 재지정까지 이 검색 시스템을 구축하기 위해 취한 단계와 토큰화를 위한 OpenVINO 및 지능형 일괄 처리를 사용하여 최적화한 과정을 살펴보겠습니다.
의미 체계 검색 개요: 검색 및 순위 재지정
최신 첨단 검색 시스템은 일반적으로 검색과 순위 재지정의 두 가지 주요 단계로 구성됩니다.
1) 검색: 첫 번째 단계에서는 사용자 쿼리를 기반으로 관련 문서의 하위 집합을 검색합니다. 이는 OpenAI의 소형 및 대형 임베딩, Cohere의 Embed 모델 또는 Mixbread의 mxbai 임베딩과 같은 사전 훈련된 임베딩 모델을 사용하여 수행할 수 있습니다. 검색은 쿼리와의 유사성을 측정하여 문서 풀을 좁히는 데 중점을 둡니다.
다음은 검색을 위해 제가 가장 좋아하는 라이브러리 중 하나인 Huggingface의 문장 변환기 라이브러리를 사용하는 간단한 예입니다.
from sentence_transformers import SentenceTransformer import numpy as np # Load a pre-trained sentence transformer model model = SentenceTransformer("sentence-transformers/all-MiniLM-L6-v2") # Sample query and documents (vectorize the query and the documents) query = "How do I fix a broken landing gear?" documents = ["Report 1 on landing gear failure", "Report 2 on engine problems"] # Get embeddings for query and documents query_embedding = model.encode(query) document_embeddings = model.encode(documents) # Calculate cosine similarity between query and documents similarities = np.dot(document_embeddings, query_embedding) # Retrieve top-k most relevant documents top_k = np.argsort(similarities)[-5:] print("Top 5 documents:", [documents[i] for i in top_k])
2) 순위 재지정: 가장 관련성이 높은 문서가 검색되면 크로스 인코더 모델을 사용하여 이러한 문서의 순위를 더욱 향상시킵니다. 이 단계에서는 더 깊은 문맥 이해에 중점을 두고 쿼리와 관련된 각 문서를 보다 정확하게 재평가합니다.
순위 재지정은 각 문서의 관련성을 더욱 정확하게 평가하여 개선 단계를 더 추가하므로 유익합니다.
다음은 경량 크로스 인코더인 cross-encoder/ms-marco-TinyBERT-L-2-v2를 사용하여 순위를 다시 매기는 코드 예제입니다.
from sentence_transformers import CrossEncoder # Load the cross-encoder model cross_encoder = CrossEncoder("cross-encoder/ms-marco-TinyBERT-L-2-v2") # Use the cross-encoder to rerank top-k retrieved documents query_document_pairs = [(query, doc) for doc in documents] scores = cross_encoder.predict(query_document_pairs) # Rank documents based on the new scores top_k_reranked = np.argsort(scores)[-5:] print("Top 5 reranked documents:", [documents[i] for i in top_k_reranked])
병목 현상 식별: 토큰화 및 예측 비용
개발 과정에서 문장 변환기에 대한 기본 설정으로 1,000개의 보고서를 처리할 때 토큰화 및 예측 단계가 상당히 오래 걸리는 것을 발견했습니다. 특히 실시간 응답을 목표로 했기 때문에 이로 인해 성능 병목 현상이 발생했습니다.
아래에서는 공연을 시각화하기 위해 SnakeViz를 사용하여 코드를 프로파일링했습니다.
보시다시피 토큰화 및 예측 단계가 불균형적으로 느리기 때문에 검색결과 제공이 크게 지연됩니다. 전체적으로 평균 4~5초 정도 걸렸습니다. 이는 토큰화 단계와 예측 단계 사이에 차단 작업이 있기 때문입니다. 데이터베이스 호출, 필터링 등의 다른 작업도 추가하면 총 8~9초가 되기 쉽습니다.
OpenVINO로 성능 최적화
내가 직면한 질문은 다음과 같습니다. 더 빠르게 만들 수 있을까요? 대답은 '예'입니다. CPU 추론에 최적화된 백엔드인 OpenVINO를 활용하면 됩니다. OpenVINO는 AWS Lambda에서 사용하는 Intel 하드웨어의 딥 러닝 모델 추론을 가속화하는 데 도움이 됩니다.
OpenVINO 최적화 코드 예시
추론 속도를 높이기 위해 OpenVINO를 검색 시스템에 통합한 방법은 다음과 같습니다.
from sentence_transformers import SentenceTransformer import numpy as np # Load a pre-trained sentence transformer model model = SentenceTransformer("sentence-transformers/all-MiniLM-L6-v2") # Sample query and documents (vectorize the query and the documents) query = "How do I fix a broken landing gear?" documents = ["Report 1 on landing gear failure", "Report 2 on engine problems"] # Get embeddings for query and documents query_embedding = model.encode(query) document_embeddings = model.encode(documents) # Calculate cosine similarity between query and documents similarities = np.dot(document_embeddings, query_embedding) # Retrieve top-k most relevant documents top_k = np.argsort(similarities)[-5:] print("Top 5 documents:", [documents[i] for i in top_k])
이 접근 방식을 사용하면 원래 4~5초를 1~2초로 줄여 2~3배의 속도 향상을 얻을 수 있습니다. 전체 작업 코드는 Github에 있습니다.
속도를 위한 미세 조정: 배치 크기 및 토큰화
성능 개선의 또 다른 중요한 요소는 토큰화 프로세스를 최적화하고 배치 크기 및 토큰 길이를 조정하는 것이었습니다. 배치 크기(batch_size=16)를 늘리고 토큰 길이(max_length=512)를 줄임으로써 토큰화를 병렬화하고 반복 작업의 오버헤드를 줄일 수 있었습니다. 실험에서 우리는 16에서 64 사이의 배치_크기가 잘 작동하지만 더 큰 성능은 저하된다는 것을 발견했습니다. 마찬가지로, 우리는 보고서의 평균 길이가 비교적 짧은 경우에 실행 가능한 max_length를 128로 정했습니다. 이러한 변경으로 전체 속도가 8배 향상되어 CPU에서도 순위 재지정 시간이 1초 미만으로 단축되었습니다.
실제로 이는 데이터의 속도와 정확성 사이의 적절한 균형을 찾기 위해 다양한 배치 크기와 토큰 길이를 실험하는 것을 의미했습니다. 이를 통해 응답 시간이 크게 향상되어 1,000개의 보고서로도 검색 시스템을 확장할 수 있게 되었습니다.
결론
OpenVINO를 사용하고 토큰화 및 일괄 처리를 최적화함으로써 CPU 전용 설정에서 실시간 요구 사항을 충족하는 고성능 의미 검색 시스템을 구축할 수 있었습니다. 실제로 전체적으로 8배의 속도 향상을 경험했습니다. 문장 변환기를 사용한 검색과 크로스 인코더 모델을 사용한 재순위 지정을 결합하면 강력하고 사용자 친화적인 검색 환경이 만들어집니다.
응답 시간과 컴퓨팅 리소스에 제약이 있는 유사한 시스템을 구축하는 경우 더 나은 성능을 얻기 위해 OpenVINO 및 지능형 일괄 처리를 살펴보는 것이 좋습니다.
이 기사가 즐거웠기를 바랍니다. 이 기사가 유용하다고 생각되면 다른 사람들도 찾을 수 있도록 좋아요를 누르고 친구들과 공유하세요. 내 작업에 대한 최신 정보를 얻으려면 Linkedin에서 나를 팔로우하세요. 읽어주셔서 감사합니다!
위 내용은 OpenVINO 및 Postgres를 사용하여 빠르고 효율적인 의미 검색 시스템 구축의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

Video Face Swap
완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

Python은 배우고 사용하기 쉽고 C는 더 강력하지만 복잡합니다. 1. Python Syntax는 간결하며 초보자에게 적합합니다. 동적 타이핑 및 자동 메모리 관리를 사용하면 사용하기 쉽지만 런타임 오류가 발생할 수 있습니다. 2.C는 고성능 응용 프로그램에 적합한 저수준 제어 및 고급 기능을 제공하지만 학습 임계 값이 높고 수동 메모리 및 유형 안전 관리가 필요합니다.

제한된 시간에 Python 학습 효율을 극대화하려면 Python의 DateTime, Time 및 Schedule 모듈을 사용할 수 있습니다. 1. DateTime 모듈은 학습 시간을 기록하고 계획하는 데 사용됩니다. 2. 시간 모듈은 학습과 휴식 시간을 설정하는 데 도움이됩니다. 3. 일정 모듈은 주간 학습 작업을 자동으로 배열합니다.

Python은 개발 효율에서 C보다 낫지 만 C는 실행 성능이 높습니다. 1. Python의 간결한 구문 및 풍부한 라이브러리는 개발 효율성을 향상시킵니다. 2.C의 컴파일 유형 특성 및 하드웨어 제어는 실행 성능을 향상시킵니다. 선택할 때는 프로젝트 요구에 따라 개발 속도 및 실행 효율성을 평가해야합니다.

하루에 2 시간 동안 파이썬을 배우는 것으로 충분합니까? 목표와 학습 방법에 따라 다릅니다. 1) 명확한 학습 계획을 개발, 2) 적절한 학습 자원 및 방법을 선택하고 3) 실습 연습 및 검토 및 통합 연습 및 검토 및 통합,이 기간 동안 Python의 기본 지식과 고급 기능을 점차적으로 마스터 할 수 있습니다.

Python과 C는 각각 고유 한 장점이 있으며 선택은 프로젝트 요구 사항을 기반으로해야합니다. 1) Python은 간결한 구문 및 동적 타이핑으로 인해 빠른 개발 및 데이터 처리에 적합합니다. 2) C는 정적 타이핑 및 수동 메모리 관리로 인해 고성능 및 시스템 프로그래밍에 적합합니다.

Pythonlistsarepartoftsandardlardlibrary, whileraysarenot.listsarebuilt-in, 다재다능하고, 수집 할 수있는 반면, arraysarreprovidedByTearRaymoduledlesscommonlyusedDuetolimitedFunctionality.

파이썬은 자동화, 스크립팅 및 작업 관리가 탁월합니다. 1) 자동화 : 파일 백업은 OS 및 Shutil과 같은 표준 라이브러리를 통해 실현됩니다. 2) 스크립트 쓰기 : PSUTIL 라이브러리를 사용하여 시스템 리소스를 모니터링합니다. 3) 작업 관리 : 일정 라이브러리를 사용하여 작업을 예약하십시오. Python의 사용 편의성과 풍부한 라이브러리 지원으로 인해 이러한 영역에서 선호하는 도구가됩니다.

과학 컴퓨팅에서 Python의 응용 프로그램에는 데이터 분석, 머신 러닝, 수치 시뮬레이션 및 시각화가 포함됩니다. 1.numpy는 효율적인 다차원 배열 및 수학적 함수를 제공합니다. 2. Scipy는 Numpy 기능을 확장하고 최적화 및 선형 대수 도구를 제공합니다. 3. 팬더는 데이터 처리 및 분석에 사용됩니다. 4. matplotlib는 다양한 그래프와 시각적 결과를 생성하는 데 사용됩니다.
