Débloquer la puissance de Llama-3 et LocalGPT : une expérience de conversation privée avec vos documents
Découvrez comment débloquer la puissance de Llama-3 et LocalGPT pour une expérience de chat privée et sécurisée avec vos documents. Explorez le processus de configuration, la personnalisation du modèle et des exemples de questions-réponses captivants. Optimisez votre assistant IA basé sur les documents avec ce tutoriel complet.
19 février 2025

Déverrouillez la puissance de vos documents avec Llama-3 et LocalGPT - une solution sécurisée, privée et riche en fonctionnalités pour discuter avec vos propres données. Découvrez comment configurer et utiliser facilement cette technologie de pointe pour améliorer votre gestion des connaissances et l'exploration de votre contenu.
Démarrer avec Llama-3 et LocalGPT
Cloner le dépôt et configurer l'environnement virtuel
Installer les packages requis
Configurer le modèle Llama-3
Ingérer des fichiers et préparer la base de connaissances
Discuter avec le document à l'aide de LocalGPT
Prochains progrès de LocalGPT
Conclusion
Démarrer avec Llama-3 et LocalGPT
Démarrer avec Llama-3 et LocalGPT
Pour commencer avec Llama-3 dans LocalGPT, suivez ces étapes :
-
Clonez le dépôt LocalGPT en cliquant sur le bouton "Code" et en copiant l'URL. Ouvrez un terminal, naviguez jusqu'au répertoire souhaité et exécutez
git clone <URL>
. -
Créez un dossier dédié pour le modèle Llama-3, par exemple
local-gpt-llama3
. -
Changez de répertoire vers le nouveau dossier créé à l'aide de
cd local-gpt-llama3
. -
Créez un environnement virtuel à l'aide de
conda create -n local-three python=3.10
et activez-le avecconda activate local-three
. -
Installez les packages requis en exécutant
pip install -r requirements.txt
. Cela téléchargera tous les packages nécessaires, à l'exception du package Llama CPP. -
Selon votre matériel (GPU Nvidia ou Apple Silicon), installez le package Llama CPP approprié à l'aide des commandes fournies.
-
Ouvrez le projet dans Visual Studio Code et activez l'environnement virtuel dans le terminal.
-
Modifiez le fichier
constants.py
pour spécifier le modèle que vous souhaitez utiliser. Pour le modèle Llama-3 non quantifié de Meta, fournissez l'ID du modèle et laissez le nom de base àNone
. -
Si vous utilisez le modèle Llama-3 gated de Meta, vous devrez vous connecter à votre compte Hugging Face à l'aide de l'interface en ligne de commande Hugging Face. Suivez les instructions pour obtenir un jeton d'accès et vous connecter.
-
Exécutez le script
ingest.py
pour ingérer le document d'exemple fourni avec LocalGPT. -
Démarrez la session de discussion en exécutant
python run_local_gpt.py
. Le modèle se chargera et vous pourrez commencer à poser des questions liées au document ingéré. -
Explorez les options de modèle de prompt dans le fichier
prompt_template_utils.py
et personnalisez les prompts selon vos besoins.
C'est tout ! Vous êtes maintenant prêt à utiliser Llama-3 dans l'environnement LocalGPT. Profitez de votre expérience de modèle de langage sécurisé, privé et local.
Cloner le dépôt et configurer l'environnement virtuel
Cloner le dépôt et configurer l'environnement virtuel
Tout d'abord, nous devons cloner le dépôt. Cliquez sur le bouton "Code" et copiez l'URL. Ensuite, ouvrez un terminal et tapez la commande suivante pour cloner le dépôt :
git clone <repository_url>
Ensuite, nous allons créer un dossier dédié pour le modèle Lama 3. Vous pouvez le nommer "local-gpt" ou quelque chose de similaire :
mkdir local-gpt
cd local-gpt
Maintenant, nous devons créer un environnement virtuel pour gérer les dépendances du projet. Nous utiliserons conda pour cela :
conda create -n local-3 python=3.10
Cela créera un nouvel environnement virtuel nommé "local-3" avec Python 3.10.
Pour activer l'environnement virtuel, exécutez :
conda activate local-3
Vous devriez maintenant voir le nom de l'environnement virtuel dans l'invite de commande de votre terminal, indiquant qu'il est actif.
Ensuite, nous devons installer les packages requis. Nous pouvons le faire en exécutant :
pip install -r requirements.txt
Cela installera tous les packages nécessaires, à l'exception du package Lama CPP. Selon que vous utilisez un GPU Nvidia ou un Apple Silicon, vous devrez exécuter une commande différente pour installer Lama CPP :
Pour GPU Nvidia :
pip install git+https://github.com/ggerganov/llama.cpp.git
Pour Apple Silicon :
pip install git+https://github.com/ggerganov/llama.cpp.git@apple
Une fois l'installation terminée, vous êtes prêt à commencer à utiliser le projet Local GPT avec le modèle Lama 3.
Installer les packages requis
Installer les packages requis
Pour commencer avec Lama 3 dans Local GPT, nous devons d'abord installer les packages requis. Voici comment vous pouvez le faire :
-
Clonez le dépôt Local GPT en cliquant sur le bouton "Code" et en copiant l'URL. Ensuite, ouvrez un terminal et exécutez la commande suivante pour cloner le dépôt :
git clone <repository_url>
-
Créez un dossier dédié pour le modèle Lama 3 en vous rendant dans le répertoire cloné et en créant un nouveau dossier :
cd local-gpt mkdir lama3 cd lama3
-
Créez un environnement virtuel à l'aide de conda et installez les packages requis :
conda create -n lama3 python=3.10 conda activate lama3 pip install -r requirements.txt
-
Selon que vous utilisez un GPU Nvidia ou un Apple Silicon, installez le package Lama CPP approprié :
- Pour GPU Nvidia :
pip install git+https://github.com/ggerganov/llama.cpp.git
- Pour Apple Silicon :
pip install git+https://github.com/ggerganov/llama.cpp.git@apple
- Pour GPU Nvidia :
-
Une fois l'installation terminée, vous êtes prêt à commencer à utiliser Lama 3 dans Local GPT.
Configurer le modèle Llama-3
Configurer le modèle Llama-3
Pour configurer le modèle Llama-3 dans le projet Local GPT, suivez ces étapes :
- Ouvrez le fichier
constants.py
et localisez les variablesmodel_id
etmodel_base_name
. - Si vous utilisez un modèle non quantifié, fournissez simplement l'ID du modèle, qui est l'adresse du dépôt Hugging Face. Par exemple, si vous voulez utiliser le modèle Llama-38B, l'ID du modèle serait
"decapoda-research/llama-38b-hf"
. - Si vous voulez utiliser un modèle quantifié, vous devrez également fournir le nom de fichier
.ggf
pour le niveau de quantification spécifique que vous voulez utiliser. Par exemple,"decapoda-research/llama-38b-hf-quantized-ggml-q4_0.ggf"
. - Si vous utilisez la version Meta du modèle Llama-3, vous devrez vous connecter à votre compte Hugging Face Hub. Vous pouvez le faire en exécutant la commande suivante dans votre terminal :
Ensuite, fournissez votre jeton d'accès Hugging Face lorsque vous y serez invité.hugging-face-cli login
- Une fois que vous aurez configuré le modèle, vous pourrez procéder à l'ingestion de vos fichiers et commencer à discuter avec le modèle à l'aide du projet Local GPT.
Ingérer des fichiers et préparer la base de connaissances
Ingérer des fichiers et préparer la base de connaissances
Pour ingérer des fichiers et préparer la base de connaissances pour Local GPT, suivez ces étapes :
-
Activez l'environnement virtuel créé précédemment :
conda activate local_3
-
Exécutez le script
ingest.py
pour ingérer les fichiers :python ingest.py
Cela lancera le processus d'ingestion et divisera les documents en morceaux. Par défaut, il utilise le modèle d'intégration
instructor-large
, mais vous pouvez changer de modèle en modifiant le fichierconstants.py
. -
Si vous utilisez un modèle gated comme le modèle Meta Lama 3, vous devrez vous connecter à votre compte Hugging Face à l'aide de l'interface en ligne de commande Hugging Face :
hugging-face-cli login
Fournissez votre jeton d'accès Hugging Face lorsque vous y serez invité.
-
Une fois l'ingestion terminée, vous pouvez commencer à discuter avec les documents en exécutant le script
run_local_gpt.py
:python run_local_gpt.py
Cela chargera le modèle et vous permettra d'interagir avec la base de connaissances.
-
Si vous voulez utiliser un modèle de prompt différent, vous pouvez modifier le fichier
prompt_template_utils.py
. Les modèles de prompt disponibles sont répertoriés dans le fichierrun_local_gpt.py
.
C'est tout ! Vous êtes maintenant prêt à utiliser Local GPT avec le modèle Lama 3 et vos documents ingérés.
Discuter avec le document à l'aide de LocalGPT
Discuter avec le document à l'aide de LocalGPT
Pour commencer à discuter avec le document à l'aide de LocalGPT, suivez ces étapes :
-
Activez l'environnement virtuel que vous avez créé précédemment :
conda activate local_3
-
Exécutez la commande
python run_local_gpt.py
pour démarrer l'interface de discussion. Cela chargera le modèle et préparera le document pour l'interaction. -
Une fois le modèle chargé, vous pouvez commencer à poser des questions liées au document. Par exemple, vous pouvez demander "Qu'est-ce que l'instruction tuning ?" pour obtenir des informations sur ce sujet à partir du contexte fourni.
-
Le modèle générera des réponses en fonction du contenu du document. Les réponses seront concises et répondront directement à la question posée.
-
Vous pouvez continuer à poser diverses questions pour explorer le contenu du document et obtenir des informations à partir de l'interface LocalGPT.
N'oubliez pas que tout le traitement se fait localement sur votre machine, assurant ainsi la confidentialité et la sécurité de vos données.
Prochains progrès de LocalGPT
Prochains progrès de LocalGPT
Local GPT évolue constamment, et les responsables du projet travaillent sur plusieurs nouvelles fonctionnalités et améliorations passionnantes. Parmi les principales avancées à venir, citons :
-
Techniques de récupération avancées : Le code de base est en cours de réécriture pour intégrer des techniques de récupération plus avancées, telles que l'expansion de requête, l'expansion de contexte et le classement. Ces techniques amélioreront la capacité du modèle à récupérer et à utiliser les informations pertinentes de la base de connaissances, ce qui conduira à des réponses plus précises et informatives.
-
Modèles de prompt améliorés : Les responsables du projet ont observé que l'utilisation du modèle de prompt approprié est cruciale pour les performances du modèle, en particulier lorsqu'on travaille avec différents modèles de langage comme Llama 3. Ils ont ajouté des modèles de prompt spécifiques pour Llama 3, Mistral et d'autres modèles, afin de s'assurer que le modèle suit le format attendu et génère des réponses de haute qualité.
-
Prise en charge des modèles quantifiés : L'équipe du projet explore les moyens d'utiliser efficacement les versions quantifiées des modèles de langage, qui peuvent apporter des améliorations de performances significatives sans compromettre la qualité des réponses. Ils travaillent à résoudre les problèmes qu'ils ont rencontrés avec le jeton de fin de séquence dans certains modèles quantifiés.
-
Capacités multimodales améliorées : Les futures mises à jour de LocalGPT pourront inclure la prise en charge des entrées multimodales, permettant aux utilisateurs d'interagir avec le modèle à l'aide d'une combinaison de texte, d'images et d'autres médias. Cela pourrait permettre des interactions plus diversifiées et plus engageantes.
-
Prise en charge élargie des modèles : Les responsables du projet prévoient d'ajouter la prise en charge d'une gamme plus large de modèles de langage, y compris des modèles multilingues, afin de répondre à une base d'utilisateurs plus large et d'permettre des cas d'utilisation plus diversifiés.
-
Amélioration de l'expérience utilisateur : L'équipe s'engage à améliorer l'expérience utilisateur globale, avec des plans pour introduire des fonctionnalités telles que de meilleurs outils de visualisation, des interfaces en ligne de commande plus intuitives et une intégration transparente avec d'autres outils et plateformes.
-
Cours avancé sur la génération avec augmentation de la récupération : Le responsable du projet travaille actuellement sur un cours approfondi qui couvrira les techniques avancées de génération avec augmentation de la récupération, y compris les prochaines améliorations de LocalGPT. Ce cours fournira une compréhension approfondie de ces techniques et de leurs applications pratiques.
Restez à l'écoute pour les prochaines mises à jour et améliorations de LocalGPT, car le projet continue d'évoluer et de fournir aux utilisateurs un outil puissant et polyvalent pour interagir avec leurs documents de manière sécurisée, privée et efficace.
FAQ
FAQ

