Erschließen Sie die Kraft von Llama-3 und LocalGPT: Ein privates Chatgespräch mit Ihren Dokumenten
Entdecken Sie, wie Sie die Kraft von Llama-3 und LocalGPT für ein privates, sicheres Chatererlebnis mit Ihren Dokumenten freischalten können. Erkunden Sie den Einrichtungsprozess, die Modellkustomisierung und ansprechende Frage-Antwort-Beispiele. Optimieren Sie Ihren dokumentenbasierten KI-Assistenten mit diesem umfassenden Tutorial.
14. Februar 2025

Erschließen Sie die Kraft Ihrer Dokumente mit Llama-3 und LocalGPT - eine sichere, private und funktionsreiche Lösung für den Chat mit Ihren eigenen Daten. Entdecken Sie, wie Sie diese hochmoderne Technologie mühelos einrichten und nutzen können, um Ihr Wissensmanagement und die Erkundung Ihrer Inhalte zu verbessern.
Erste Schritte mit Llama-3 und LocalGPT
Klonen des Repositorys und Einrichten der virtuellen Umgebung
Installieren der erforderlichen Pakete
Konfigurieren des Llama-3-Modells
Einlesen von Dateien und Vorbereiten der Wissensbasis
Chatten mit dem Dokument mithilfe von LocalGPT
Bevorstehende Weiterentwicklungen in LocalGPT
Schlussfolgerung
Erste Schritte mit Llama-3 und LocalGPT
Erste Schritte mit Llama-3 und LocalGPT
Um mit Llama-3 innerhalb von LocalGPT zu beginnen, folgen Sie diesen Schritten:
-
Klonen Sie das LocalGPT-Repository, indem Sie auf die Schaltfläche "Code" klicken und die URL kopieren. Öffnen Sie ein Terminal, navigieren Sie zum gewünschten Verzeichnis und führen Sie
git clone <URL>
aus. -
Erstellen Sie einen dedizierten Ordner für das Llama-3-Modell, z.B.
local-gpt-llama3
. -
Wechseln Sie in das neu erstellte Verzeichnis mit
cd local-gpt-llama3
. -
Erstellen Sie eine virtuelle Umgebung mit
conda create -n local-three python=3.10
und aktivieren Sie sie mitconda activate local-three
. -
Installieren Sie die erforderlichen Pakete, indem Sie
pip install -r requirements.txt
ausführen. Dadurch werden alle notwendigen Pakete heruntergeladen, mit Ausnahme des Llama CPP-Pakets. -
Installieren Sie je nach Ihrer Hardware (Nvidia GPU oder Apple Silicon) das entsprechende Llama CPP-Paket mit den bereitgestellten Befehlen.
-
Öffnen Sie das Projekt in Visual Studio Code und aktivieren Sie die virtuelle Umgebung im Terminal.
-
Bearbeiten Sie die Datei
constants.py
, um das zu verwendende Modell anzugeben. Für das unquantisierte Llama-3-Modell von Meta geben Sie die Modell-ID an und lassen den Basesnamen alsNone
. -
Wenn Sie das gated Llama-3-Modell von Meta verwenden, müssen Sie sich mit Ihrem Hugging Face-Konto über die Hugging Face CLI anmelden. Folgen Sie den Anweisungen, um ein Zugriffstoken zu erhalten und sich anzumelden.
-
Führen Sie das Skript
ingest.py
aus, um das mit LocalGPT bereitgestellte Beispieldokument zu erfassen. -
Starten Sie die Chatitzung, indem Sie
python run_local_gpt.py
ausführen. Das Modell wird geladen, und Sie können dann Fragen in Bezug auf das erfasste Dokument stellen. -
Erkunden Sie die Optionen für Prompt-Vorlagen in der Datei
prompt_template_utils.py
und passen Sie die Prompts nach Bedarf an.
Das war's! Sie können jetzt Llama-3 innerhalb der LocalGPT-Umgebung verwenden. Genießen Sie Ihr sicheres, privates und lokales Sprachmodell-Erlebnis.
Klonen des Repositorys und Einrichten der virtuellen Umgebung
Klonen des Repositorys und Einrichten der virtuellen Umgebung
Zuerst müssen wir das Repository klonen. Klicken Sie auf die Schaltfläche "Code" und kopieren Sie die URL. Öffnen Sie dann ein Terminal und geben Sie den folgenden Befehl ein, um das Repository zu klonen:
git clone <repository_url>
Als Nächstes erstellen wir einen dedizierten Ordner für das Lama 3-Modell. Sie können ihn "local-gpt" oder ähnlich nennen:
mkdir local-gpt
cd local-gpt
Jetzt müssen wir eine virtuelle Umgebung erstellen, um die Projektabhängigkeiten zu verwalten. Dafür werden wir conda verwenden:
conda create -n local-3 python=3.10
Dadurch wird eine neue virtuelle Umgebung mit dem Namen "local-3" und Python 3.10 erstellt.
Um die virtuelle Umgebung zu aktivieren, führen Sie Folgendes aus:
conda activate local-3
Sie sollten jetzt den Namen der virtuellen Umgebung in Ihrer Terminal-Eingabeaufforderung sehen, was anzeigt, dass sie aktiv ist.
Als Nächstes müssen wir die erforderlichen Pakete installieren. Das können wir mit folgendem Befehl tun:
pip install -r requirements.txt
Dadurch werden alle notwendigen Pakete installiert, mit Ausnahme des Lama CPP-Pakets. Je nachdem, ob Sie eine Nvidia GPU oder Apple Silicon verwenden, müssen Sie einen anderen Befehl ausführen, um Lama CPP zu installieren:
Für Nvidia GPU:
pip install git+https://github.com/ggerganov/llama.cpp.git
Für Apple Silicon:
pip install git+https://github.com/ggerganov/llama.cpp.git@apple
Sobald die Installation abgeschlossen ist, können Sie mit dem Lokalen GPT-Projekt und dem Lama 3-Modell loslegen.
Installieren der erforderlichen Pakete
Installieren der erforderlichen Pakete
Um mit Lama 3 innerhalb von Local GPT zu beginnen, müssen wir zunächst die erforderlichen Pakete installieren. Hier ist, wie Sie das machen können:
-
Klonen Sie das Local GPT-Repository, indem Sie auf die Schaltfläche "Code" klicken und die URL kopieren. Öffnen Sie dann ein Terminal und führen Sie den folgenden Befehl aus, um das Repository zu klonen:
git clone <repository_url>
-
Erstellen Sie einen dedizierten Ordner für das Lama 3-Modell, indem Sie in das geklonte Verzeichnis wechseln und einen neuen Ordner erstellen:
cd local-gpt mkdir lama3 cd lama3
-
Erstellen Sie eine virtuelle Umgebung mit conda und installieren Sie die erforderlichen Pakete:
conda create -n lama3 python=3.10 conda activate lama3 pip install -r requirements.txt
-
Installieren Sie je nach Verwendung einer Nvidia GPU oder Apple Silicon das entsprechende Lama CPP-Paket:
- Für Nvidia GPU:
pip install git+https://github.com/ggerganov/llama.cpp.git
- Für Apple Silicon:
pip install git+https://github.com/ggerganov/llama.cpp.git@apple
- Für Nvidia GPU:
-
Sobald die Installation abgeschlossen ist, können Sie mit der Verwendung von Lama 3 innerhalb von Local GPT beginnen.
Konfigurieren des Llama-3-Modells
Konfigurieren des Llama-3-Modells
Um das Llama-3-Modell innerhalb des lokalen GPT-Projekts zu konfigurieren, führen Sie diese Schritte aus:
- Öffnen Sie die Datei
constants.py
und suchen Sie die Variablenmodel_id
undmodel_base_name
. - Wenn Sie ein unquantisiertes Modell verwenden, geben Sie einfach die Modell-ID an, die die Adresse des Hugging Face-Repositorys ist. Wenn Sie beispielsweise das Llama-38B-Modell verwenden möchten, wäre die Modell-ID
"decapoda-research/llama-38b-hf"
. - Wenn Sie ein quantisiertes Modell verwenden möchten, müssen Sie auch den Namen der
.ggf
-Datei für den spezifischen Quantisierungsgrad angeben, den Sie verwenden möchten. Zum Beispiel"decapoda-research/llama-38b-hf-quantized-ggml-q4_0.ggf"
. - Wenn Sie die Meta-Version des Llama-3-Modells verwenden, müssen Sie sich bei Ihrem Hugging Face Hub-Konto anmelden. Sie können dies ausführen, indem Sie den folgenden Befehl in Ihrem Terminal ausführen:
Geben Sie dann Ihr Hugging Face-Zugriffstoken ein, wenn Sie dazu aufgefordert werden.hugging-face-cli login
- Sobald Sie das Modell konfiguriert haben, können Sie mit der Erfassung Ihrer Dateien beginnen und mit dem Modell über das lokale GPT-Projekt chatten.
Einlesen von Dateien und Vorbereiten der Wissensbasis
Einlesen von Dateien und Vorbereiten der Wissensbasis
Um Dateien zu erfassen und die Wissensbasis für das lokale GPT vorzubereiten, führen Sie diese Schritte aus:
-
Aktivieren Sie die zuvor erstellte virtuelle Umgebung:
conda activate local_3
-
Führen Sie das Skript
ingest.py
aus, um die Dateien zu erfassen:python ingest.py
Dieser Vorgang beginnt mit der Erfassung und Aufteilung der Dokumente in Chunks. Standardmäßig wird das Embedding-Modell
instructor-large
verwendet, aber Sie können das Modell durch Änderung der Dateiconstants.py
ändern. -
Wenn Sie ein gated Modell wie das Meta Lama 3-Modell verwenden, müssen Sie sich über die Hugging Face CLI bei Ihrem Hugging Face-Konto anmelden:
hugging-face-cli login
Geben Sie Ihr Hugging Face-Zugriffstoken ein, wenn Sie dazu aufgefordert werden.
-
Sobald die Erfassung abgeschlossen ist, können Sie mit dem Chatten mit den Dokumenten beginnen, indem Sie das Skript
run_local_gpt.py
ausführen:python run_local_gpt.py
Dadurch wird das Modell geladen und Sie können mit der Wissensbasis interagieren.
-
Wenn Sie eine andere Prompt-Vorlage verwenden möchten, können Sie die Datei
prompt_template_utils.py
bearbeiten. Die verfügbaren Prompt-Vorlagen sind in der Dateirun_local_gpt.py
aufgeführt.
Das war's! Sie können jetzt LocalGPT mit dem Lama 3-Modell und Ihren erfassten Dokumenten verwenden.
Chatten mit dem Dokument mithilfe von LocalGPT
Chatten mit dem Dokument mithilfe von LocalGPT
Um mit dem Dokument über LocalGPT zu chatten, führen Sie diese Schritte aus:
-
Aktivieren Sie die virtuelle Umgebung, die Sie zuvor erstellt haben:
conda activate local_3
-
Führen Sie den Befehl
python run_local_gpt.py
aus, um die Chat-Oberfläche zu starten. Dadurch wird das Modell geladen und das Dokument für die Interaktion vorbereitet. -
Sobald das Modell geladen ist, können Sie Fragen in Bezug auf das Dokument stellen. Zum Beispiel können Sie "Was ist Instruktionstuning?" fragen, um Informationen zu diesem Thema aus dem bereitgestellten Kontext zu erhalten.
-
Das Modell wird Antworten basierend auf dem Inhalt des Dokuments generieren. Die Antworten werden prägnant sein und die gestellte Frage direkt beantworten.
-
Sie können weiterhin verschiedene Fragen stellen, um den Inhalt des Dokuments zu erkunden und Erkenntnisse aus der LocalGPT-Oberfläche zu gewinnen.
Erinnern Sie sich, dass die gesamte Verarbeitung lokal auf Ihrem Gerät erfolgt, was die Privatsphäre und Sicherheit Ihrer Daten gewährleistet.
Bevorstehende Weiterentwicklungen in LocalGPT
Bevorstehende Weiterentwicklungen in LocalGPT
Local GPT entwickelt sich ständig weiter, und die Projektverantwortlichen arbeiten an mehreren spannenden neuen Funktionen und Verbesserungen. Einige der wichtigsten bevorstehenden Fortschritte sind:
-
Erweiterte Abrufverfahren: Der Quellcode wird umgeschrieben, um fortschrittlichere Abrufverfahren wie Abfrageexpansion, Kontextexpansion und Ranking zu integrieren. Diese Techniken werden die Fähigkeit des Modells verbessern, relevante Informationen aus der Wissensbasis abzurufen und zu nutzen, was zu genaueren und informativeren Antworten führt.
-
Verbesserte Prompt-Vorlagen: Die Projektverantwortlichen haben beobachtet, dass die Verwendung der richtigen Prompt-Vorlage entscheidend für die Leistung des Modells ist, insbesondere bei der Arbeit mit verschiedenen Sprachmodellen wie Llama 3. Sie haben spezielle Prompt-Vorlagen für Llama 3, Mistral und andere Modelle hinzugefügt, um sicherzustellen, dass das Modell dem erwarteten Format folgt und hochwertige Antworten generiert.
-
Unterstützung für quantisierte Modelle: Das Projektteam untersucht Möglichkeiten, quantisierte Versionen von Sprachmodellen effektiv zu nutzen, die erhebliche Leistungsverbesserungen ohne Beeinträchtigung der Antwortqualität bieten können. Sie arbeiten daran, die Probleme mit dem End-of-Sequence-Token in einigen quantisierten Modellen zu beheben.
-
Verbesserte multimodale Fähigkeiten: Zukünftige Updates von LocalGPT könnten die Unterstützung für multimodale Eingaben umfassen, die es Benutzern ermöglicht, mit dem Modell über eine Kombination aus Text, Bildern und anderen Medien zu interagieren. Dies könnte zu vielfältigeren und anregenden Interaktionen führen.
-
Erweiterte Modellunterstützung: Die Projektverantwortlichen planen, die Unterstützung für eine breitere Palette von Sprachmodellen, einschließlich mehrsprachiger Modelle, hinzuzufügen, um eine größere Nutzerbasis zu bedienen und mehr Anwendungsfälle zu ermöglichen.
-
Verbesserte Benutzererfahrung: Das Team ist bestrebt, die allgemeine Benutzererfahrung zu verbessern, mit Plänen für bessere Visualisierungstools, intuitivere Befehlszeilenschnittstellen und nahtlose Integration mit anderen Tools und Plattformen.
-
Fortgeschrittener Kurs zur Abruf-unterstützten Generierung: Der Projektverantwortliche arbeitet derzeit an einem eingehenden Kurs, der fortgeschrittene Techniken für die Abruf-unterstützte Generierung, einschließlich der bevorstehenden Verbesserungen in LocalGPT, abdecken wird. Dieser Kurs wird ein umfassendes Verständnis dieser Techniken und ihrer praktischen Anwendungen vermitteln.
Bleiben Sie auf dem Laufenden für die bevorstehenden Updates und Verbesserungen in LocalGPT, da das Projekt weiterhin an der Bereitstellung eines leistungsfähigen und vielseitigen Tools für die
FAQ
FAQ