Att låsa upp kraften i Llama-3 och LocalGPT: En privat chattupplevelse med dina dokument

Upptäck hur du kan frigöra kraften i Llama-3 och LocalGPT för en privat och säker chattupplevelse med dina dokument. Utforska installationsprocessen, anpassning av modellen och engagerande frågor och svar-exempel. Optimera din dokumentbaserade AI-assistent med denna omfattande handledning.

24 februari 2025

party-gif

Frigör kraften i dina dokument med Llama-3 och LocalGPT - en säker, privat och funktionsrik lösning för att chatta med dina egna data. Upptäck hur du enkelt kan konfigurera och använda denna banbrytande teknik för att förbättra din kunskapshantering och innehållsutforskning.

Komma igång med Llama-3 och LocalGPT

För att komma igång med Llama-3 inom LocalGPT, följ dessa steg:

  1. Klona LocalGPT-databasen genom att klicka på "Code"-knappen och kopiera URL:en. Öppna en terminal, navigera till önskad katalog och kör git clone <URL>.

  2. Skapa en dedikerad mapp för Llama-3-modellen, t.ex. local-gpt-llama3.

  3. Byt till den nyligen skapade katalogen med cd local-gpt-llama3.

  4. Skapa en virtuell miljö med conda create -n local-three python=3.10 och aktivera den med conda activate local-three.

  5. Installera de nödvändiga paketen genom att köra pip install -r requirements.txt. Detta kommer att ladda ner alla nödvändiga paket, förutom Llama CPP-paketet.

  6. Beroende på din maskinvara (Nvidia GPU eller Apple Silicon), installera det lämpliga Llama CPP-paketet med hjälp av de angivna kommandona.

  7. Öppna projektet i Visual Studio Code och aktivera den virtuella miljön i terminalen.

  8. Ändra constants.py-filen för att ange den modell du vill använda. För den ickekvantierade Llama-3-modellen från Meta, ange modell-ID:t och lämna basen som None.

  9. Om du använder den gated Llama-3-modellen från Meta, måste du logga in på ditt Hugging Face-konto med hjälp av Hugging Face CLI. Följ instruktionerna för att få en åtkomsttoken och logga in.

  10. Kör ingest.py-skriptet för att mata in det exempeldokument som tillhandahålls med LocalGPT.

  11. Starta chattssessionen genom att köra python run_local_gpt.py. Modellen kommer att laddas och du kan börja ställa frågor relaterade till det inmatade dokumentet.

  12. Utforska alternativ för promptmallar i prompt_template_utils.py-filen och anpassa prompterna efter behov.

Det var allt! Nu är du redo att använda Llama-3 inom LocalGPT-miljön. Njut av din säkra, privata och lokala språkmodellupplevelse.

Klona databasen och konfigurera den virtuella miljön

Först måste vi klona databasen. Klicka på "Code"-knappen och kopiera URL:en. Öppna sedan en terminal och skriv följande kommando för att klona databasen:

git clone <repository_url>

Nästa steg är att skapa en dedikerad mapp för Lama 3-modellen. Du kan kalla den "local-gpt" eller något liknande:

mkdir local-gpt
cd local-gpt

Nu måste vi skapa en virtuell miljö för att hantera projektets beroenden. Vi kommer att använda conda för detta:

conda create -n local-3 python=3.10

Detta skapar en ny virtuell miljö med namnet "local-3" och Python 3.10.

För att aktivera den virtuella miljön, kör:

conda activate local-3

Du bör nu se namnet på den virtuella miljön i ditt terminalfönster, vilket indikerar att den är aktiv.

Nästa steg är att installera de nödvändiga paketen. Vi kan göra detta genom att köra:

pip install -r requirements.txt

Detta installerar alla nödvändiga paket, förutom Lama CPP-paketet. Beroende på om du använder en Nvidia GPU eller Apple Silicon, måste du köra ett annat kommando för att installera Lama CPP:

För Nvidia GPU:

pip install git+https://github.com/ggerganov/llama.cpp.git

För Apple Silicon:

pip install git+https://github.com/ggerganov/llama.cpp.git@apple

När installationen är klar är du redo att börja använda Local GPT-projektet med Lama 3-modellen.

Installera de nödvändiga paketen

För att komma igång med Lama 3 inom Local GPT, måste vi först installera de nödvändiga paketen. Här är hur du gör:

  1. Klona Local GPT-databasen genom att klicka på "Code"-knappen och kopiera URL:en. Öppna sedan en terminal och kör följande kommando för att klona databasen:

    git clone <repository_url>
    
  2. Skapa en dedikerad mapp för Lama 3-modellen genom att byta till den klonade katalogen och skapa en ny mapp:

    cd local-gpt
    mkdir lama3
    cd lama3
    
  3. Skapa en virtuell miljö med conda och installera de nödvändiga paketen:

    conda create -n lama3 python=3.10
    conda activate lama3
    pip install -r requirements.txt
    
  4. Beroende på om du använder en Nvidia GPU eller Apple Silicon, installera det lämpliga Lama CPP-paketet:

    • För Nvidia GPU:
      pip install git+https://github.com/ggerganov/llama.cpp.git
      
    • För Apple Silicon:
      pip install git+https://github.com/ggerganov/llama.cpp.git@apple
      
  5. När installationen är klar är du redo att börja använda Lama 3 inom Local GPT.

Konfigurera Llama-3-modellen

För att konfigurera Llama-3-modellen inom Local GPT-projektet, följ dessa steg:

  1. Öppna constants.py-filen och hitta variablerna model_id och model_base_name.
  2. Om du använder en ickekvantierad modell, ange bara modell-ID:t, som är adressen till Hugging Face-databasen. Om du till exempel vill använda Llama-38B-modellen, skulle modell-ID:t vara "decapoda-research/llama-38b-hf".
  3. Om du vill använda en kvantierad modell, måste du också ange .ggf-filnamnet för den specifika kvantiseringsnivån du vill använda. Till exempel "decapoda-research/llama-38b-hf-quantized-ggml-q4_0.ggf".
  4. Om du använder Meta-versionen av Llama-3-modellen, måste du logga in på ditt Hugging Face Hub-konto. Du kan göra detta genom att köra följande kommando i din terminal:
    hugging-face-cli login
    
    Ange sedan din Hugging Face-åtkomsttoken när du blir ombedd.
  5. När du har konfigurerat modellen kan du fortsätta att mata in dina filer och börja chatta med modellen med hjälp av Local GPT-projektet.

Importera filer och förbereda kunskapsbasen

För att mata in filer och förbereda kunskapsbasen för Local GPT, följ dessa steg:

  1. Aktivera den virtuella miljö som du skapade tidigare:

    conda activate local_3
    
  2. Kör ingest.py-skriptet för att mata in filerna:

    python ingest.py
    

    Detta startar inmatningsprocessen och delar upp dokumenten i segment. Som standard används instructor-large-inbäddningsmodellen, men du kan ändra modellen genom att ändra constants.py-filen.

  3. Om du använder en gated modell som Meta Lama 3-modellen, måste du logga in på ditt Hugging Face-konto med hjälp av Hugging Face CLI:

    hugging-face-cli login
    

    Ange din Hugging Face-åtkomsttoken när du blir ombedd.

  4. När inmatningen är klar kan du börja chatta med dokumenten genom att köra run_local_gpt.py-skriptet:

    python run_local_gpt.py
    

    Detta kommer att ladda modellen och låta dig interagera med kunskapsbasen.

  5. Om du vill använda en annan promptmall, kan du ändra prompt_template_utils.py-filen. De tillgängliga promptmallarna finns listade i run_local_gpt.py-filen.

Det var allt! Nu är du redo att använda Local GPT med Lama 3-modellen och dina inmatade dokument.

Chatta med dokumentet med hjälp av LocalGPT

För att börja chatta med dokumentet med hjälp av LocalGPT, följ dessa steg:

  1. Aktivera den virtuella miljö du skapade tidigare:

    conda activate local_3
    
  2. Kör kommandot python run_local_gpt.py för att starta chattgränssnittet. Detta kommer att ladda modellen och förbereda dokumentet för interaktion.

  3. När modellen har laddats, kan du börja ställa frågor relaterade till dokumentet. Till exempel kan du fråga "Vad är instruction tuning?" för att få information om det ämnet från det tillhandahållna sammanhanget.

  4. Modellen kommer att generera svar baserat på innehållet i dokumentet. Svaren kommer att vara koncisa och direkt relaterade till den ställda frågan.

  5. Du kan fortsätta att ställa olika frågor för att utforska dokumentets innehåll och få insikter från LocalGPT-gränssnittet.

Komihåg att all bearbetning sker lokalt på din dator, vilket säkerställer sekretessen och säkerheten för dina data.

Kommande framsteg i LocalGPT

Local GPT utvecklas ständigt, och projektets underhållare arbetar med flera spännande nya funktioner och förbättringar. Några av de viktigaste kommande framstegen inkluderar:

  1. Avancerade hämtningsteknik: Kodbasen omarbetas för att införliva mer avancerade hämtningsteknik, såsom frågeexpansion, kontextexpansion och rangordning. Dessa tekniker kommer att förbättra modellens förmåga att hämta och utnyttja relevant information från kunskapsbasen, vilket leder till mer korrekta och informativa svar.

  2. Förbättrade promptmallar: Projektets underhållare har observerat att användningen av lämplig promptmall är avgörande för modellens prestanda, särskilt när man arbetar med olika språkmodeller som Llama 3. De har lagt till specifika promptmallar för Llama 3, Mistral och andra modeller, vilket säkerställer att modellen följer det förväntade formatet och genererar svar av hög kvalitet.

  3. Stöd för kvantierade modeller: Projektteamet utforskar sätt att effektivt utnyttja kvantierade versioner av språkmodeller, vilket kan ge betydande prestandaförbättringar utan att äventyra kvaliteten på svaren. De arbetar med att åtgärda de problem de har stött på med end-of-sequence-token i vissa kvantierade modeller.

  4. Förbättrade multimodala funktioner: Framtida uppdateringar av LocalGPT kan inkludera stöd för multimodala indata, vilket gör att användarna kan interagera med modellen med en kombination av text, bilder och andra media. Detta skulle kunna möjliggöra mer diversifierade och engagerande interaktioner.

  5. Utökat modellstöd: Projektets underhållare planerar att lägga till stöd för ett bredare utbud av språkmodeller, inklusive flerspråkiga modeller, för att tillgodose en bredare användargrupp och möjliggöra fler användningsområden.

  6. Förbättrad användarupplevelse: Teamet är dedikerat till att förbättra den övergripande användarupplevelsen, med planer på att införa funktioner som bättre visualiseringsverktyg, mer intuitiva kommandoradsinterfaces och smidig integrering med andra verktyg och plattformar.

  7. Avancerad kurs om hämtningsförstärkt generering: Projektunderhållaren arbetar för närvarande på en fördjupad kurs som kommer att täcka avancerade tekniker för hämtningsförstärkt generering, inklusive de kommande framstegen i LocalGPT. Denna kurs kommer att ge en omfattande förståelse för dessa tekniker och deras praktiska tillämpningar.

Håll utkik efter de kommande uppdateringarna och framstegen i LocalGPT, då projektet fortsätter att utvecklas och erbjuda användarna ett kraftfullt och mångsidigt verktyg för att interagera med sina dokument på ett säkert, privat och effektivt sätt.

FAQ