Leve seu Código para o Próximo Nível com um Copiloto Local

Leve seu código para o próximo nível com um copiloto local. Descubra como usar o LMStudio e o Olama para servir modelos Llama3 dentro da extensão Code GPT do VS Code para capacidades de programação aprimoradas.

24 de fevereiro de 2025

party-gif

Desbloqueie seu potencial de codificação com um copiloto de IA local gratuito que leva sua produtividade a novos patamares. Descubra como integrar perfeitamente modelos de linguagem poderosos como o Llama3 em seu fluxo de trabalho de desenvolvimento, capacitando-o a escrever um código melhor, refatorar de forma eficiente e impulsionar sua experiência geral de codificação.

Aprenda como configurar um Co-Piloto Local para suas necessidades de codificação

Nesta seção, exploraremos como configurar um co-piloto local para suas necessidades de codificação usando o LM Studio e o Olama. Abordaremos as etapas para instalar as extensões necessárias, configurar os servidores locais e aproveitar o poder dos modelos Llama3 para melhorar sua experiência de codificação.

Primeiro, nos concentraremos em configurar o LM Studio como um servidor de API para servir o modelo Llama3 Instruct Gradient de 1 milhão de tokens. Guiaremos você pelo processo de carregar o modelo, criar um servidor local e integrá-lo à extensão Code GPT no Visual Studio Code.

Em seguida, apresentaremos o Olama como uma alternativa de código aberto ao LM Studio. Demonstraremos como baixar e instalar o Olama, iniciar o servidor e conectar o modelo Llama3 de 70 bilhões ao Code GPT. Isso lhe fornecerá uma solução totalmente de código aberto para suas necessidades de co-piloto local.

Ao longo da seção, testaremos as capacidades do LM Studio e do Olama fornecendo prompts e observando as respostas dos modelos Llama3. Também exploraremos as capacidades de refatoração do modelo maior de 70 bilhões e compararemos o desempenho com o modelo de 8 bilhões usado anteriormente.

No final desta seção, você terá um entendimento sólido de como configurar um co-piloto local usando tanto o LM Studio quanto o Olama, permitindo que você aproveite o poder dos modelos Llama3 para suas tarefas e projetos de codificação.

Aproveite o LM Studio para servir modelos Llama3 localmente

Para usar o Llama3 como seu co-piloto no VS Code, você pode aproveitar o LM Studio para servir os modelos Llama3 localmente. Essa abordagem permite que você execute os modelos em sua própria máquina, sem depender de uma API externa como o Grok.

Primeiro, instale a extensão Code GPT no VS Code. Em seguida, siga estas etapas:

  1. Baixe e execute o LM Studio em sua máquina.
  2. Procure pelo modelo Llama3 que você deseja usar, como o modelo Llama3 Instruct Gradient de 1 milhão de tokens.
  3. Crie um servidor local no LM Studio para servir o modelo Llama3 selecionado.
  4. No VS Code, certifique-se de selecionar o LM Studio como o provedor nas configurações da extensão Code GPT.

Agora, você pode testar a integração pedindo ao modelo Llama3 que escreva um programa Python que faça o download de um arquivo do S3 e o armazene localmente. O modelo se comunicará com o servidor LM Studio para gerar a resposta.

Embora a velocidade possa não ser tão rápida quanto o uso da API Grok, essa abordagem permite que você execute os modelos localmente, sem depender de um serviço externo. Além disso, você pode explorar outros modelos disponíveis no LM Studio e usá-los como seu co-piloto de codificação no VS Code.

Descubra o poder do Olama como uma solução de Co-Piloto Local de código aberto

Para usar o Olama como seu co-piloto dentro da extensão Code GPT, siga estas etapas:

  1. Baixe e instale o Olama no site oficial, olama.com.
  2. Inicie o servidor Olama clicando no aplicativo Olama.
  3. Na extensão Code GPT, selecione o Olama como o provedor.
  4. Especifique o modelo que você deseja usar, como o modelo Llama3 de 70 bilhões.
  5. Para iniciar o servidor do modelo Llama3 de 70 bilhões, abra um terminal e execute o comando olama run llama3-70b.
  6. Assim que o modelo for carregado, você poderá começar a usar o Olama como seu co-piloto dentro da extensão Code GPT.

O Olama é uma solução totalmente de código aberto, diferentemente do LM Studio, que possui alguns componentes proprietários. Embora o LM Studio ofereça mais flexibilidade em termos dos modelos que você pode usar, o Olama fornece uma alternativa totalmente de código aberto.

Ao usar o Olama, você precisará iniciar manualmente o servidor do modelo, o que pode ser um pouco mais envolvido do que a configuração do LM Studio. No entanto, essa abordagem permite que você tenha total controle sobre o modelo que está usando e garante que sua solução de co-piloto seja totalmente de código aberto.

A qualidade da saída do Olama dependerá do modelo que você estiver usando, e o modelo Llama3 de 70 bilhões deve fornecer um desempenho melhor em comparação ao modelo de 8 bilhões. Tenha em mente que executar um modelo grande localmente pode resultar em velocidades de inferência mais lentas em comparação ao uso de uma API baseada em nuvem como o Grok.

Em geral, o Olama é uma ótima opção de código aberto para executar seu co-piloto localmente e pode ser uma ferramenta valiosa em seu fluxo de trabalho de desenvolvimento.

Conclusão

Neste vídeo, exploramos duas alternativas locais à API Grok para usar o Llama3 como um co-piloto de codificação no VS Code. Primeiro, configuramos o LM Studio como um servidor de API para servir o modelo Llama3 Instruct Gradient de 1 milhão de tokens. Em seguida, demonstramos como usar esse modelo dentro da extensão Code GPT no VS Code, mostrando sua capacidade de gerar código e fornecer sugestões de refatoração.

Depois, analisamos o uso do Olama como uma solução de código aberto para executar modelos de linguagem locais. Percorremos o processo de iniciar o servidor Olama e conectar a extensão Code GPT ao modelo Llama3 de 70 bilhões de parâmetros. Embora o desempenho tenha sido mais lento em comparação à API Grok, a configuração local proporcionou mais controle e flexibilidade.

O vídeo destacou os trade-offs entre as duas abordagens, com o LM Studio oferecendo uma gama mais ampla de opções de modelos, mas sendo uma solução de código fechado, enquanto o Olama forneceu uma alternativa de código aberto com uma seleção de modelos mais limitada. No final, ambas as abordagens demonstraram a capacidade de aproveitar os poderosos modelos de linguagem para assistência de codificação em um ambiente local, reduzindo a dependência de APIs externas.

Perguntas frequentes