Bringen Sie Ihr Coding auf die nächste Stufe mit einem lokalen Copiloten

Bringen Sie Ihr Coding auf die nächste Stufe mit einem lokalen Copiloten. Entdecken Sie, wie Sie LMStudio und Olama verwenden können, um Llama3-Modelle innerhalb der Code-GPT-Erweiterung von VS Code für erweiterte Programmierfähigkeiten bereitzustellen.

19. Februar 2025

party-gif

Entfesseln Sie Ihr Coding-Potenzial mit einem kostenlosen lokalen KI-Copiloten, der Ihre Produktivität auf neue Höhen bringt. Entdecken Sie, wie Sie leistungsstarke Sprachmodelle wie Llama3 nahtlos in Ihren Entwicklungsworkflow integrieren können, um besseren Code zu schreiben, effizient zu refaktorieren und Ihre gesamte Coding-Erfahrung zu verbessern.

Erfahren Sie, wie Sie einen lokalen Co-Piloten für Ihre Coding-Bedürfnisse einrichten

In diesem Abschnitt werden wir untersuchen, wie man einen lokalen Co-Piloten für Ihre Coding-Bedürfnisse mit Hilfe von LM Studio und Olama einrichtet. Wir werden die Schritte zum Installieren der erforderlichen Erweiterungen, Konfigurieren der lokalen Server und Nutzen der Kraft der Llama3-Modelle, um Ihre Coding-Erfahrung zu verbessern, abdecken.

Zuerst werden wir uns darauf konzentrieren, LM Studio als API-Server einzurichten, um das Llama3 Instruct Gradient 1 Million Token Version Modell bereitzustellen. Wir werden Sie durch den Prozess des Ladens des Modells, Erstellens eines lokalen Servers und der Integration mit der Code GPT-Erweiterung in Visual Studio Code führen.

Als Nächstes werden wir Olama als Open-Source-Alternative zu LM Studio vorstellen. Wir werden zeigen, wie man Olama herunterlädt und installiert, den Server startet und das Llama3 70 Milliarden Modell mit der Code GPT-Erweiterung verbindet. Dies wird Ihnen eine vollständig Open-Source-Lösung für Ihre lokalen Co-Piloten-Bedürfnisse bieten.

Im gesamten Abschnitt werden wir die Fähigkeiten von sowohl LM Studio als auch Olama testen, indem wir Eingabeaufforderungen bereitstellen und die Antworten der Llama3-Modelle beobachten. Wir werden auch die Refaktorisierungsfähigkeiten des größeren 70 Milliarden Modells erkunden und die Leistung mit dem zuvor verwendeten 8 Milliarden Modell vergleichen.

Am Ende dieses Abschnitts werden Sie ein solides Verständnis dafür haben, wie man einen lokalen Co-Piloten mit sowohl LM Studio als auch Olama einrichtet, um die Kraft der Llama3-Modelle für Ihre Coding-Aufgaben und -Projekte zu nutzen.

Nutzen Sie LM Studio, um Llama3-Modelle lokal bereitzustellen

Um Llama3 als Ihren Co-Piloten in VS Code zu verwenden, können Sie LM Studio nutzen, um die Llama3-Modelle lokal bereitzustellen. Dieser Ansatz ermöglicht es Ihnen, die Modelle auf Ihrem eigenen Gerät auszuführen, ohne sich auf eine externe API wie Grok verlassen zu müssen.

Installieren Sie zunächst die Code GPT-Erweiterung in VS Code. Folgen Sie dann diesen Schritten:

  1. Laden Sie LM Studio herunter und führen Sie es auf Ihrem Gerät aus.
  2. Suchen Sie nach dem Llama3-Modell, das Sie verwenden möchten, wie z.B. die Llama3 Instruct Gradient 1 Million Token Version.
  3. Erstellen Sie einen lokalen Server in LM Studio, um das ausgewählte Llama3-Modell bereitzustellen.
  4. Stellen Sie in VS Code sicher, dass Sie LM Studio als Anbieter in den Einstellungen der Code GPT-Erweiterung auswählen.

Nun können Sie die Integration testen, indem Sie das Llama3-Modell bitten, ein Python-Programm zu schreiben, das eine Datei von S3 herunterlädt und lokal speichert. Das Modell wird mit dem LM Studio-Server kommunizieren, um die Antwort zu generieren.

Obwohl die Geschwindigkeit möglicherweise nicht so schnell ist wie bei der Verwendung der Grok-API, ermöglicht dieser Ansatz Ihnen, die Modelle lokal auszuführen, ohne sich auf einen externen Dienst verlassen zu müssen. Darüber hinaus können Sie andere in LM Studio verfügbare Modelle erkunden und sie als Ihren Coding-Co-Piloten in VS Code verwenden.

Entdecken Sie die Kraft von Olama als Open-Source-Lösung für einen lokalen Co-Piloten

Um Olama als Ihren Co-Piloten innerhalb der Code GPT-Erweiterung zu verwenden, folgen Sie diesen Schritten:

  1. Laden Sie Olama von der offiziellen Website olama.com herunter und installieren Sie es.
  2. Starten Sie den Olama-Server, indem Sie auf die Olama-Anwendung klicken.
  3. Wählen Sie in der Code GPT-Erweiterung Olama als Anbieter aus.
  4. Geben Sie das Modell an, das Sie verwenden möchten, wie z.B. das Llama3 70 Milliarden Modell.
  5. Um den Llama3 70 Milliarden Modell-Server zu starten, öffnen Sie ein Terminal und führen Sie den Befehl olama run llama3-70b aus.
  6. Sobald das Modell geladen ist, können Sie Olama als Ihren Co-Piloten innerhalb der Code GPT-Erweiterung verwenden.

Olama ist eine vollständig Open-Source-Lösung, im Gegensatz zu LM Studio, das einige proprietäre Komponenten hat. Während LM Studio mehr Flexibilität bei den verwendbaren Modellen bietet, stellt Olama eine vollständig Open-Source-Alternative dar.

Bei der Verwendung von Olama müssen Sie den Modell-Server manuell starten, was etwas aufwendiger sein kann als die LM Studio-Einrichtung. Dieser Ansatz ermöglicht Ihnen jedoch, die volle Kontrolle über das verwendete Modell zu haben und sicherzustellen, dass Ihre Co-Piloten-Lösung vollständig Open-Source ist.

Die Qualität der Ausgabe von Olama hängt vom verwendeten Modell ab, und das 70 Milliarden Llama3-Modell sollte eine bessere Leistung als das 8 Milliarden Modell bieten. Beachten Sie, dass das Ausführen eines großen Modells lokal zu langsameren Inferenzgeschwindigkeiten im Vergleich zur Verwendung einer cloudbasierten API wie Grok führen kann.

Insgesamt ist Olama eine großartige Open-Source-Option für den Betrieb Ihres Co-Piloten lokal und kann ein wertvolles Werkzeug in Ihrem Entwicklungsworkflow sein.

Schlussfolgerung

In diesem Video haben wir zwei lokale Alternativen zur Grok-API für die Verwendung von Llama3 als Coding-Co-Piloten in VS Code erkundet. Zunächst haben wir LM Studio als API-Server eingerichtet, um das Llama3 Instruct Gradient 1 Million Token Modell bereitzustellen. Anschließend haben wir gezeigt, wie man dieses Modell innerhalb der Code GPT-Erweiterung in VS Code verwendet, wobei wir seine Fähigkeiten zur Codegenerierung und Refaktorisierungsvorschläge demonstriert haben.

Anschließend haben wir uns mit der Verwendung von Olama als Open-Source-Lösung für den Betrieb lokaler Sprachmodelle befasst. Wir haben den Prozess des Startens des Olama-Servers und des Verbindens der Code GPT-Erweiterung mit dem Llama3 70 Milliarden Parameter Modell durchgegangen. Obwohl die Leistung langsamer war als bei der Grok-API, bot die lokale Einrichtung mehr Kontrolle und Flexibilität.

Das Video hob die Abwägungen zwischen den beiden Ansätzen hervor, wobei LM Studio ein breiteres Spektrum an Modelloptionen bietet, aber eine geschlossene Lösung ist, während Olama eine Open-Source-Alternative mit einer begrenzteren Modellauswahl darstellt. Letztendlich zeigten beide Ansätze die Möglichkeit, leistungsstarke Sprachmodelle für die Coding-Unterstützung in einer lokalen Umgebung zu nutzen und die Abhängigkeit von externen APIs zu reduzieren.

FAQ