Desbloqueando o Poder do Llama-3 e do LocalGPT: Uma Experiência de Chat Privado com Seus Documentos
Descubra como desbloquear o poder do Llama-3 e do LocalGPT para uma experiência de chat privada e segura com seus documentos. Explore o processo de configuração, a personalização do modelo e exemplos de perguntas e respostas envolventes. Otimize seu assistente de IA baseado em documentos com este tutorial abrangente.
14 de fevereiro de 2025

Desbloqueie o poder dos seus documentos com o Llama-3 e o LocalGPT - uma solução segura, privada e repleta de recursos para conversar com seus próprios dados. Descubra como configurar e utilizar essa tecnologia de ponta de forma eficaz para aprimorar sua gestão do conhecimento e exploração de conteúdo.
Começando com Llama-3 e LocalGPT
Clonando o Repositório e Configurando o Ambiente Virtual
Instalando os Pacotes Necessários
Configurando o Modelo Llama-3
Ingerindo Arquivos e Preparando a Base de Conhecimento
Conversando com o Documento Usando o LocalGPT
Próximos Avanços no LocalGPT
Conclusão
Começando com Llama-3 e LocalGPT
Começando com Llama-3 e LocalGPT
Para começar com o Llama-3 dentro do LocalGPT, siga estes passos:
-
Clone o repositório do LocalGPT clicando no botão "Code" e copiando a URL. Abra um terminal, navegue até o diretório desejado e execute
git clone <URL>
. -
Crie uma pasta dedicada para o modelo Llama-3, por exemplo,
local-gpt-llama3
. -
Mude para o diretório recém-criado usando
cd local-gpt-llama3
. -
Crie um ambiente virtual usando
conda create -n local-three python=3.10
e ative-o comconda activate local-three
. -
Instale os pacotes necessários executando
pip install -r requirements.txt
. Isso baixará todos os pacotes necessários, exceto o pacote Llama CPP. -
Dependendo do seu hardware (GPU Nvidia ou Apple Silicon), instale o pacote Llama CPP apropriado usando os comandos fornecidos.
-
Abra o projeto no Visual Studio Code e ative o ambiente virtual no terminal.
-
Modifique o arquivo
constants.py
para especificar o modelo que você deseja usar. Para o modelo Llama-3 não quantizado da Meta, forneça o ID do modelo e mantenha o nome base comoNone
. -
Se você estiver usando o modelo Llama-3 com portão da Meta, precisará fazer login na sua conta do Hugging Face usando a CLI do Hugging Face. Siga as instruções para obter um token de acesso e fazer login.
-
Execute o script
ingest.py
para ingerir o documento de exemplo fornecido com o LocalGPT. -
Inicie a sessão de bate-papo executando
python run_local_gpt.py
. O modelo será carregado e você poderá começar a fazer perguntas relacionadas ao documento ingerido. -
Explore as opções de modelo de prompt no arquivo
prompt_template_utils.py
e personalize os prompts conforme necessário.
É isso! Agora você está pronto para usar o Llama-3 dentro do ambiente do LocalGPT. Aproveite sua experiência segura, privada e local com o modelo de linguagem.
Clonando o Repositório e Configurando o Ambiente Virtual
Clonando o Repositório e Configurando o Ambiente Virtual
Primeiro, precisamos clonar o repositório. Clique no botão "Code" e copie a URL. Em seguida, abra um terminal e digite o seguinte comando para clonar o repositório:
git clone <repository_url>
A seguir, criaremos uma pasta dedicada para o modelo Lama 3. Você pode nomeá-la como "local-gpt" ou algo semelhante:
mkdir local-gpt
cd local-gpt
Agora, precisamos criar um ambiente virtual para gerenciar as dependências do projeto. Usaremos o conda para isso:
conda create -n local-3 python=3.10
Isso criará um novo ambiente virtual chamado "local-3" com o Python 3.10.
Para ativar o ambiente virtual, execute:
conda activate local-3
Você deve ver o nome do ambiente virtual no prompt do terminal, indicando que ele está ativo.
A seguir, precisamos instalar os pacotes necessários. Podemos fazer isso executando:
pip install -r requirements.txt
Isso instalará todos os pacotes necessários, exceto o pacote Lama CPP. Dependendo se você está usando uma GPU Nvidia ou Apple Silicon, você precisará executar um comando diferente para instalar o Lama CPP:
Para GPU Nvidia:
pip install git+https://github.com/ggerganov/llama.cpp.git
Para Apple Silicon:
pip install git+https://github.com/ggerganov/llama.cpp.git@apple
Depois que a instalação estiver concluída, você estará pronto para começar a usar o projeto Local GPT com o modelo Lama 3.
Instalando os Pacotes Necessários
Instalando os Pacotes Necessários
Para começar com o Lama 3 dentro do Local GPT, primeiro precisamos instalar os pacotes necessários. Aqui está como você pode fazer isso:
-
Clone o repositório do Local GPT clicando no botão "Code" e copiando a URL. Em seguida, abra um terminal e execute o seguinte comando para clonar o repositório:
git clone <repository_url>
-
Crie uma pasta dedicada para o modelo Lama 3 mudando para o diretório clonado e criando uma nova pasta:
cd local-gpt mkdir lama3 cd lama3
-
Crie um ambiente virtual usando o conda e instale os pacotes necessários:
conda create -n lama3 python=3.10 conda activate lama3 pip install -r requirements.txt
-
Dependendo se você está usando uma GPU Nvidia ou Apple Silicon, instale o pacote Lama CPP apropriado:
- Para GPU Nvidia:
pip install git+https://github.com/ggerganov/llama.cpp.git
- Para Apple Silicon:
pip install git+https://github.com/ggerganov/llama.cpp.git@apple
- Para GPU Nvidia:
-
Depois que a instalação estiver concluída, você estará pronto para começar a usar o Lama 3 dentro do Local GPT.
Configurando o Modelo Llama-3
Configurando o Modelo Llama-3
Para configurar o modelo Llama-3 dentro do projeto Local GPT, siga estas etapas:
- Abra o arquivo
constants.py
e localize as variáveismodel_id
emodel_base_name
. - Se você estiver usando um modelo não quantizado, basta fornecer o ID do modelo, que é o endereço do repositório Hugging Face. Por exemplo, se você quiser usar o modelo Llama-38B, o ID do modelo seria
"decapoda-research/llama-38b-hf"
. - Se você quiser usar um modelo quantizado, também precisará fornecer o nome do arquivo
.ggf
para o nível de quantização específico que deseja usar. Por exemplo,"decapoda-research/llama-38b-hf-quantized-ggml-q4_0.ggf"
. - Se você estiver usando a versão Meta do modelo Llama-3, precisará fazer login na sua conta do Hugging Face Hub. Você pode fazer isso executando o seguinte comando no seu terminal:
Em seguida, forneça seu token de acesso do Hugging Face quando solicitado.hugging-face-cli login
- Depois de configurar o modelo, você pode prosseguir para ingerir seus arquivos e começar a conversar com o modelo usando o projeto Local GPT.
Ingerindo Arquivos e Preparando a Base de Conhecimento
Ingerindo Arquivos e Preparando a Base de Conhecimento
Para ingerir arquivos e preparar a base de conhecimento para o Local GPT, siga estas etapas:
-
Ative o ambiente virtual criado anteriormente:
conda activate local_3
-
Execute o script
ingest.py
para ingerir os arquivos:python ingest.py
Isso iniciará o processo de ingestão e dividirá os documentos em chunks. Por padrão, ele usa o modelo de incorporação
instructor-large
, mas você pode alterar o modelo modificando o arquivoconstants.py
. -
Se você estiver usando um modelo com portão, como o modelo Meta Lama 3, precisará fazer login na sua conta do Hugging Face usando a CLI do Hugging Face:
hugging-face-cli login
Forneça seu token de acesso do Hugging Face quando solicitado.
-
Depois que a ingestão estiver concluída, você pode começar a conversar com os documentos executando o script
run_local_gpt.py
:python run_local_gpt.py
Isso carregará o modelo e permitirá que você interaja com a base de conhecimento.
-
Se você quiser usar um modelo de prompt diferente, pode modificar o arquivo
prompt_template_utils.py
. Os modelos de prompt disponíveis estão listados no arquivorun_local_gpt.py
.
É isso! Agora você está pronto para usar o Local GPT com o modelo Lama 3 e seus documentos ingeridos.
Conversando com o Documento Usando o LocalGPT
Conversando com o Documento Usando o LocalGPT
Para começar a conversar com o documento usando o LocalGPT, siga estas etapas:
-
Ative o ambiente virtual que você criou anteriormente:
conda activate local_3
-
Execute o comando
python run_local_gpt.py
para iniciar a interface de bate-papo. Isso carregará o modelo e preparará o documento para interação. -
Assim que o modelo for carregado, você pode começar a fazer perguntas relacionadas ao documento. Por exemplo, você pode perguntar "O que é o ajuste de instrução?" para obter informações sobre esse tópico a partir do contexto fornecido.
-
O modelo gerará respostas com base no conteúdo do documento. As respostas serão concisas e abordarão diretamente a pergunta feita.
-
Você pode continuar fazendo várias perguntas para explorar o conteúdo do documento e obter insights da interface do LocalGPT.
Lembre-se, todo o processamento acontece localmente em sua máquina, garantindo a privacidade e a segurança de seus dados.
Próximos Avanços no LocalGPT
Próximos Avanços no LocalGPT
O Local GPT está em constante evolução, e os mantenedores do projeto estão trabalhando em várias novidades e melhorias empolgantes. Alguns dos principais avanços futuros incluem:
-
Técnicas de Recuperação Avançadas: O código-fonte está sendo reescrito para incorporar técnicas de recuperação mais avançadas, como expansão de consulta, expansão de contexto e classificação. Essas técnicas melhorarão a capacidade do modelo de recuperar e utilizar informações relevantes da base de conhecimento, levando a respostas mais precisas e informativas.
-
Modelos de Prompt Aprimorados: Os mantenedores do projeto observaram que o uso do modelo de prompt apropriado é crucial para o desempenho do modelo, especialmente ao trabalhar com diferentes modelos de linguagem como o Llama 3. Eles adicionaram modelos de prompt específicos para Llama 3, Mistral e outros modelos, garantindo que o modelo siga o formato esperado e gere respostas de alta qualidade.
-
Suporte para Modelos Quantizados: A equipe do projeto está explorando maneiras de utilizar efetivamente as versões quantizadas dos modelos de linguagem, que podem fornecer melhorias significativas de desempenho sem comprometer a qualidade das respostas. Eles estão trabalhando para resolver os problemas que encontraram com o token de fim de sequência em alguns modelos quantizados.
-
Capacidades Multimodais Aprimoradas: Atualizações futuras do LocalGPT podem incluir suporte para entradas multimodais, permitindo que os usuários interajam com o modelo usando uma combinação de texto, imagens e outros tipos de mídia. Isso poderia permitir interações mais diversas e envolventes.
-
Suporte Expandido para Modelos: Os mantenedores do projeto planejam adicionar suporte a uma gama mais ampla de modelos de linguagem, incluindo modelos multilíngues, para atender a uma base de usuários mais ampla e habilitar casos de uso mais diversos.
-
Experiência do Usuário Aprimorada: A equipe está empenhada em melhorar a experiência geral do usuário, com planos de introduzir recursos como melhores ferramentas de visualização, interfaces de linha de comando mais intuitivas e integração perfeita com outras ferramentas e plataformas.
-
Curso Avançado sobre Geração Aumentada por Recuperação: O mantenedor do projeto está trabalhando atualmente em um curso aprofundado que cobrirá técnicas avançadas para geração aumentada por recuperação, incluindo os próximos avanços no LocalGPT. Esse curso fornecerá uma compreensão abrangente dessas técnicas e suas aplicações práticas.
Fique atento às próximas atualizações e avanços no LocalGPT, pois o projeto continua a evoluir e fornecer aos usuários uma ferramenta poderosa e versátil para interagir com seus documentos de maneira segura, privada e eficiente.
Conclusão
Conclusão
O vídeo fornece um guia abrangente sobre como começar com o Lama 3 dentro do projeto Local GPT. Ele abrange as etapas necessárias, incluindo clonar o repositório, configurar um ambiente virtual, instalar os pacotes necessários e configurar as configurações do modelo. O vídeo também demonstra como interagir com o modelo e fazer perguntas relacionadas ao documento fornecido.
Os principais destaques da seção são:
- Instruções detalhadas sobre a configuração do ambiente local para integração com o Lama 3
- Explicação das opções de configuração do modelo, incluindo o uso de modelos não quantizados e quantizados
- Demonstração de interação com o modelo e fazer perguntas com base no documento fornecido
- Menção de atualizações futuras e técnicas avançadas que serão adicionadas ao código-fonte do Local GPT
- Incentivo para se inscrever em futuros vídeos sobre o uso da versão Grok do Lama 3 dentro do Local GPT
Em geral, a seção fornece um guia conciso e informativo para os usuários começarem com o Lama 3 dentro do projeto Local GPT.
Perguntas frequentes
Perguntas frequentes