Rekursives Abruf für RAG: Implementierung mit Lamaindex
Viele Lag -Anwendungen verwenden einen vereinfachten Abrufprozess: Dokumente werden in Stücke segmentiert, in Einbettungen umgewandelt und in einer Vektor -Datenbank gespeichert. Abfragen auslösen das Abrufen der am meisten ähnlichen Dokumente, die auf der Einbettung der Ähnlichkeit basieren. Dieser Ansatz leidet jedoch unter Einschränkungen, insbesondere bei umfangreichen Datensätzen. Ambiguität und suboptimaler Informationsabruf können die Genauigkeit beeinträchtigen.
rekursives Abruf verbessert die Abrufpräzision durch Nutzung der Dokumentstruktur. Anstatt direkt abzurufen, priorieren Sie relevante Zusammenfassungen und bohren anschließend auf zugehörige Teile, um fokussiertere Ergebnisse zu erzielen.
Dieser Artikel beschreibt rekursives Abrufen und führt Sie durch seine Implementierung mit LamaNdex.
rag und langchain
Langchain erleichtert die Integration externer Daten mit LLMs über Abrufer Augmented Generation (LAG).
rekursives Abruf erklärte
Im Gegensatz zu Methoden, die sich ausschließlich auf Rohbetthöfen stützen, sind rekursive Abruf -Einbettungsdokumentenzusammenfassungen und verbinden sie mit ihren entsprechenden Brocken. Abfragen rufen zunächst relevante Zusammenfassungen ab und bestimmen die verwandten Informationen in den zugehörigen Teilen der Zusammenfassungen. Dieser kontextbezogene Ansatz verbessert die Informationsrelevanz.
Implementierung rekursiver Abruf mit Llamaindex
Dieser Abschnitt führt Sie durch eine Schritt-für-Schritt-Implementierung des rekursiven Abrufs mit Lamaindex, vom Laden der Dokumente bis zur Abfrageausführung.
Schritt 1: Dokumentlade und Vorbereitung
Dokumente werden mit SimpleDirectoryReader
geladen. Jedes Dokument empfängt einen Titel und eine Metadaten (z. B. Kategorie) für eine erweiterte Filterung. Die geladenen Dokumente werden in einem Wörterbuch für einen einfachen Zugriff gespeichert.
from llama_index.core import SimpleDirectoryReader # ... (Code for loading documents remains the same) ...
Schritt 2: LLM- und Chunking -Setup
An LLM (z. B. OpenAIs GPT-4O-Mini) wird zusammen mit einem Satzsplitter für die Erstellung von Chunk und ein Callback-Manager für die Prozessüberwachung initialisiert.
from llama_index.llms.openai import OpenAI from llama_index.core.callbacks import LlamaDebugHandler, CallbackManager from llama_index.core.node_parser import SentenceSplitter # ... (Code for LLM and chunking setup remains the same) ...
Schritt 3: Erstellung und Zusammenfassung der Vektorindex und Zusammenfassung
Für jedes Dokument wird ein Vektorindex erstellt, um das Abrufen von Ähnlichkeiten zu ermöglichen. LLM-generierte Zusammenfassungen werden als Objekte gespeichert. IndexNode
from llama_index.core import VectorStoreIndex, SummaryIndex from llama_index.core.schema import IndexNode # ... (Code for building vector indices and generating summaries remains the same) ...
Schritt 4: Vektorindexkonstruktion der obersten Ebene
Ein Vektorindex auf oberster Ebene wird aus den generierten Zusammenfassungen erstellt, wodurch das erste Abrufen relevanter Zusammenfassungen vor dem Zugriff auf detaillierte Brocken ermöglicht wird.
# ... (Code for building the top-level vector index remains the same) ...
Schritt 5: Rekursives Abruf -Setup
Der rekursive Retriever ist konfiguriert und kombiniert den Retriever auf der obersten Ebene mit einzelnen Dokumenten-Retrievers, um den hierarchischen Abrufprozess zu erleichtern.
from llama_index.core.retrievers import RecursiveRetriever # ... (Code for setting up the recursive retriever remains the same) ...
Schritt 6: Rekursive Abfragen von Abrufen
Beispielabfragen werden mit dem konfigurierten rekursiven Retriever ausgeführt.
from llama_index.core import SimpleDirectoryReader # ... (Code for loading documents remains the same) ...
Schlussfolgerung
rekursives Abruf, die Zusammenfassungen und Hierarchien nutzen, verbessert die Relevanz von abgerufenen Brocken, insbesondere bei großen Datensätzen. Es bietet eine robuste Lösung für den Aufbau genauer Abrufsysteme in datenreichen Umgebungen. Weitere Untersuchungen von RAG -Techniken finden Sie in den verknüpften Blog -Posts.
Das obige ist der detaillierte Inhalt vonRekursives Abruf für RAG: Implementierung mit Lamaindex. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen











Hey da, codieren Ninja! Welche Codierungsaufgaben haben Sie für den Tag geplant? Bevor Sie weiter in diesen Blog eintauchen, möchte ich, dass Sie über all Ihre Coding-Leiden nachdenken-die Auflistung auflisten diese auf. Erledigt? - Lassen Sie ’

Einführung OpenAI hat sein neues Modell auf der Grundlage der mit Spannung erwarteten „Strawberry“ -Scharchitektur veröffentlicht. Dieses innovative Modell, bekannt als O1

SQL -Änderungstabellanweisung: Dynamisches Hinzufügen von Spalten zu Ihrer Datenbank Im Datenmanagement ist die Anpassungsfähigkeit von SQL von entscheidender Bedeutung. Müssen Sie Ihre Datenbankstruktur im laufenden Flug anpassen? Die Änderungstabelleerklärung ist Ihre Lösung. Diese Anleitung Details Hinzufügen von Colu

Einführung Mistral hat sein erstes multimodales Modell veröffentlicht, nämlich den Pixtral-12b-2409. Dieses Modell basiert auf dem 12 -Milliarden -Parameter von Mistral, NEMO 12b. Was unterscheidet dieses Modell? Es kann jetzt sowohl Bilder als auch Tex aufnehmen

Während der Arbeit an Agentic AI navigieren Entwickler häufig die Kompromisse zwischen Geschwindigkeit, Flexibilität und Ressourceneffizienz. Ich habe den Agenten-KI-Framework untersucht und bin auf Agno gestoßen (früher war es phi-

Schwierige Benchmarks: Eine Lama -Fallstudie Anfang April 2025 stellte Meta seine Lama 4-Suite von Models vor und stellte beeindruckende Leistungsmetriken vor, die sie positiv gegen Konkurrenten wie GPT-4O und Claude 3.5 Sonnet positionierten. Zentral im Launc

Kann ein Videospiel Angst erleichtern, Fokus aufbauen oder ein Kind mit ADHS unterstützen? Da die Herausforderungen im Gesundheitswesen weltweit steigen - insbesondere bei Jugendlichen - wenden sich Innovatoren einem unwahrscheinlichen Tool zu: Videospiele. Jetzt einer der größten Unterhaltungsindus der Welt

Schalte die Kraft des Einbettungsmodelle frei: einen tiefen Eintauchen in den neuen Kurs von Andrew Ng Stellen Sie sich eine Zukunft vor, in der Maschinen Ihre Fragen mit perfekter Genauigkeit verstehen und beantworten. Dies ist keine Science -Fiction; Dank der Fortschritte in der KI wird es zu einem R
