Nutzen Sie die Kraft von Graph RAG: Erschließen Sie unstrukturierte Daten mit semantischer Suche, Embeddings und mehr
Erschließen Sie die Kraft von Graph RAG für semantische Suche, Informationsextraktion und fortgeschrittene Datenanalyse. Entdecken Sie dieses Open-Source-Retrieval-Augmented-Generation-Framework, das Wissensgraphen nutzt, um große Sprachmodelle zu verbessern. Steigern Sie Genauigkeit und Relevanz für komplexe Abfragen.
15. Februar 2025

Erschließen Sie die Kraft der semantischen Suche, Embeddings und Vektorsuche mit GraphRAG - der ultimative Open-Source-RAG-Engine von Microsoft AI. Entdecken Sie, wie diese innovative Lösung Ihre Datenanalyse- und Frage-Antwort-Fähigkeiten transformieren und Ihnen relevantere und zuverlässigere Erkenntnisse liefern kann.
Was ist RAG (Retrieval Augmented Generation)?
Wie unterscheidet sich GraphRAG von traditionellen RAG-Systemen?
Erste Schritte mit GraphRAG
Indizierung und Konfiguration von GraphRAG
Chatten mit GraphRAG
Was ist RAG (Retrieval Augmented Generation)?
Was ist RAG (Retrieval Augmented Generation)?
RAG (Retrieval Augmented Generation) ist ein Ansatz, der verwendet wird, um bestehende große Sprachmodelle durch den Einbezug externen Wissens zu verbessern. Die Schlüsselidee hinter RAG ist es, die Leistungsfähigkeit großer Sprachmodelle mit der Fähigkeit zu kombinieren, relevante Informationen aus externen Quellen wie Wissensdatenbanken oder Textkorpora abzurufen und zu nutzen.
Die Hauptvorteile des RAG-Ansatzes sind:
-
Verbesserte Relevanz: Durch das Abrufen und Einbeziehen relevanter Informationen kann RAG genauere und relevantere Antworten liefern, insbesondere für Fragen, die spezifisches Wissen erfordern.
-
Reduzierte Halluzination: Es wurde gezeigt, dass RAG die Tendenz großer Sprachmodelle, halluzinierte oder faktisch inkorrekte Inhalte zu generieren, reduziert, da die Antworten auf den abgerufenen Informationen basieren.
-
Vielseitigkeit: Zusätzlich zur Beantwortung von Fragen kann RAG auf verschiedene NLP-Aufgaben wie Informationsextraktion, Empfehlungen, Sentimentanalyse und Zusammenfassung angewendet werden.
-
Handhabung privater Daten: RAG kann mit privaten oder sensiblen Datensätzen arbeiten, da die Informationen lokal verarbeitet und gespeichert werden, ohne dass die Daten mit externen Diensten geteilt werden müssen.
Wie unterscheidet sich GraphRAG von traditionellen RAG-Systemen?
Wie unterscheidet sich GraphRAG von traditionellen RAG-Systemen?
GraphRAG ist eine bedeutende Weiterentwicklung gegenüber traditionellen RAG (Retrieval Augmented Generation)-Systemen. Hier sind die Unterschiede:
-
Extraktion von Wissensgraphen: Im Gegensatz zur einfachen textbasierten Abfrage kombiniert GraphRAG Textextraktion mit Netzwerkanalyse und Sprachmodell-Prompting, um einen umfassenden Wissensgraphen aus den Eingabedaten zu erstellen. Dies ermöglicht ein tieferes, ganzheitlicheres Verständnis der Inhalte.
-
Verbesserte Genauigkeit und Relevanz: Durch die Nutzung des Wissensgraphen kann GraphRAG genauere und relevantere Antworten liefern, insbesondere für komplexe oder spezialisierte Datensätze. Der graphbasierte Ansatz hilft, disparate Informationsteile zu verbinden und Erkenntnisse zu synthetisieren, die die Baseline-RAG-Techniken übertreffen.
-
Ganzheitliches Datenverständnis: GraphRAG folgt einem umfassenderen Ansatz, der das allgemeine Verständnis und die Zusammenfassung großer Datensammlungen verbessert. Dies macht es zu einer überlegenen Wahl für die Nutzung großer Sprachmodelle in fortgeschrittenen Datenanalyse- und Frage-Antwort-Aufgaben.
-
Reduzierte Halluzination: Es wurde gezeigt, dass GraphRAG die Tendenz großer Sprachmodelle, "halluzinierte" Inhalte zu generieren, die nicht in den bereitgestellten Informationen verankert sind, reduziert. Der graphbasierte Ansatz hilft dem Modell, sich stärker an die verlässlichen Informationen im Kontext zu halten.
-
Vielseitigkeit: Zusätzlich zur Beantwortung von Fragen kann GraphRAG auf eine Vielzahl von Aufgaben der natürlichen Sprachverarbeitung angewendet werden, wie Informationsextraktion, Empfehlungen, Sentimentanalyse und Zusammenfassung, alles in einer privaten, lokalen Speicherumgebung.
Erste Schritte mit GraphRAG
Erste Schritte mit GraphRAG
Um mit GraphRAG zu beginnen, folgen Sie diesen Schritten:
-
Installieren Sie die Voraussetzungen:
- Stellen Sie sicher, dass Sie Python auf Ihrem System installiert haben.
- Installieren Sie die erforderlichen Pakete, indem Sie
pip install graphrag
in Ihrem Terminal oder der Eingabeaufforderung ausführen.
-
Klonen Sie das Repository:
- Öffnen Sie Visual Studio Code (oder Ihre bevorzugte IDE) und erstellen Sie einen neuen Ordner für das Projekt.
- Navigieren Sie im Terminal zum Projektordner und führen Sie
git clone https://github.com/microsoft/graph-rag.git
aus, um das GraphRAG-Repository zu klonen.
-
Richten Sie die Umgebung ein:
- Navigieren Sie im Terminal zum
graph-rag
-Verzeichnis. - Exportieren Sie Ihren OpenAI-API-Schlüssel, indem Sie
export GRAPHRAG_API_KEY=your_api_key_here
ausführen.
- Navigieren Sie im Terminal zum
-
Erstellen Sie einen Eingabeordner:
- Führen Sie im Terminal
mkdir input
aus, um einen Eingabeordner für Ihre Dokumente zu erstellen.
- Führen Sie im Terminal
-
Indizieren Sie die Dokumente:
- Platzieren Sie Ihre Dokumente (z.B. Textdateien, PDFs) im
input
-Ordner. - Führen Sie im Terminal
python dm_rag_index.py
aus, um die Dokumente zu indizieren.
- Platzieren Sie Ihre Dokumente (z.B. Textdateien, PDFs) im
-
Chatten Sie mit den Dokumenten:
- Führen Sie im Terminal
python dm_graph_rag.py --query "your_query_here" --root_dir . --method global
aus. - Ersetzen Sie
"your_query_here"
durch die Frage oder Abfrage, die Sie zu den Dokumenten stellen möchten.
- Führen Sie im Terminal
Indizierung und Konfiguration von GraphRAG
Indizierung und Konfiguration von GraphRAG
Um mit GraphRAG zu beginnen, müssen Sie diese Schritte befolgen:
-
Installieren Sie die Voraussetzungen:
- Stellen Sie sicher, dass Sie Python auf Ihrem System installiert haben.
- Installieren Sie Pip, indem Sie den bereitgestellten Befehl in Ihrer Eingabeaufforderung ausführen.
-
Klonen Sie das Repository:
- Öffnen Sie Visual Studio Code und erstellen Sie ein neues Fenster.
- Öffnen Sie das Terminal, indem Sie auf die Umschalttaste für das Bedienfeld klicken.
- Navigieren Sie im Terminal zur Bash-Umgebung und führen Sie den Befehl
pip install graphrag
aus, um die erforderlichen Pakete zu installieren.
-
Richten Sie die Umgebung ein:
- Tippen Sie im Terminal
cd graphrag
, um zum geklonten Repository zu navigieren. - Exportieren Sie Ihren OpenAI-API-Schlüssel, indem Sie den Befehl
export GRAPHRAG_API_KEY=your_api_key_here
ausführen.
- Tippen Sie im Terminal
-
Erstellen Sie einen Eingabeordner:
- Führen Sie im Terminal den Befehl
mkdir input
aus, um einen Eingabeordner zu erstellen, in den Sie Ihre Dateien oder Dokumente platzieren werden. - Öffnen Sie den Ordner in VS Code, indem Sie auf "Datei" > "Ordner öffnen" klicken und das geklonte Repository auswählen.
- Führen Sie im Terminal den Befehl
-
Indizieren Sie das Dokument:
- Platzieren Sie Ihr Dokument (z.B. einen Finanzbericht) im Eingabeordner.
- Führen Sie im Terminal den Befehl
python dm_rrag index
aus, um das aktuelle Dokument zu indizieren. - Dadurch wird ein Community-Bericht über das indizierte Dokument erstellt, den Sie nun für das Chatten verwenden können.
-
Konfigurieren Sie die Umgebung:
- In der
env
-Datei können Sie den API-Schlüssel, den Modelltyp und andere Einstellungen konfigurieren. - Sie können die Verwendung eines LLAMA-Modells oder der OpenAI-Schnittstelle angeben.
- Speichern Sie die Änderungen in der
env
-Datei.
- In der
-
Führen Sie den Code aus:
- Führen Sie im Terminal den Befehl
python dm_rrag query --root_folder . --method global --query "your_query_here"
aus, um mit dem indizierten Dokument zu chatten.
- Führen Sie im Terminal den Befehl
Chatten mit GraphRAG
Chatten mit GraphRAG
Um mit GraphRAG zu chatten, folgen Sie diesen Schritten:
-
Nachdem Sie das Dokument mit dem Befehl
python dm_rrag index
indiziert haben, können Sie den Chat durch Ausführen des Befehlspython dm_rrag query --root_folder . --method global "your query here"
starten. -
Ersetzen Sie
"your query here"
durch die Frage oder Eingabeaufforderung, die Sie GraphRAG zu dem indizierten Dokument stellen möchten. -
GraphRAG wird dann den Wissensgraphen, den es während des Indizierungsprozesses erstellt hat, nutzen, um eine relevante und informative Antwort zu liefern, indem es die Leistungsfähigkeit großer Sprachmodelle und die strukturierten Informationen im Wissensgraphen nutzt.
-
Sie können den Chat mit GraphRAG fortsetzen, indem Sie den gleichen Befehl mit verschiedenen Abfragen ausführen. Das System wird den vorhandenen Wissensgraphen verwenden, um Antworten zu liefern, die auf Ihre Fragen zugeschnitten sind.
-
Wenn Sie zu einem anderen Sprachmodell wechseln möchten, können Sie das Modell in der
.env
-Datei konfigurieren, indem Sie denLLM_TYPE
angeben und den entsprechenden API-Endpunkt oder Pfad zum lokalen Modell bereitstellen. -
Der ganzheitliche Ansatz von GraphRAG zur retrieval-augmented generation ermöglicht es ihm, traditionelle Baseline-RAG-Techniken, insbesondere für komplexe oder private Datensätze, zu übertreffen, indem es disparate Informationsteile verbindet und synthetisierte Erkenntnisse liefert.
FAQ
FAQ