用本地共同飞行员将您的编码提升到新的水平
用本地助理將您的編碼提升到新的境界。探索如何使用 LMStudio 和 Olama 在 VS Code 的 Code GPT 擴展程式中服務 Llama3 模型,以增強程式設計功能。
2025年2月24日

解鎖您的編碼潛力,擁有一位免費的本地 AI 共同駕駛,將您的生產力提升到新的高度。探索如何將強大的語言模型(如 Llama3)無縫整合到您的開發工作流程中,讓您能夠編寫更好的代碼、高效重構,並提升整體的編碼體驗。
學習如何為您的編碼需求設置本地共同駕駛
學習如何為您的編碼需求設置本地共同駕駛
在本節中,我們將探討如何使用 LM Studio 和 Olama 為您的編碼需求設置本地共同駕駛。我們將介紹安裝必要擴展程序、配置本地伺服器以及利用 Llama3 模型強化您的編碼體驗的步驟。
首先,我們將專注於設置 LM Studio 作為 API 伺服器來提供 Llama3 Instruct Gradient 1 百萬令牌版本模型。我們將指導您加載模型、創建本地伺服器並將其與 Visual Studio Code 中的 Code GPT 擴展整合。
接下來,我們將介紹 Olama 作為 LM Studio 的開源替代方案。我們將演示如何下載和安裝 Olama、啟動伺服器以及將 Llama3 70 億模型連接到 Code GPT 擴展。這將為您提供一個完全開源的本地共同駕駛解決方案。
在整個部分中,我們將通過提供提示並觀察 Llama3 模型的響應來測試 LM Studio 和 Olama 的功能。我們還將探索更大的 70 億模型的重構功能,並將其與之前使用的 8 億模型的性能進行比較。
在本節結束時,您將對如何使用 LM Studio 和 Olama 設置本地共同駕駛有深入的了解,從而能夠利用 Llama3 模型來完成您的編碼任務和項目。
利用 LM Studio 在本地提供 Llama3 模型服務
利用 LM Studio 在本地提供 Llama3 模型服務
要在 VS Code 中使用 Llama3 作為您的共同駕駛,您可以利用 LM Studio 在本地提供 Llama3 模型。這種方法允許您在自己的機器上運行模型,而不需要依賴像 Grok 這樣的外部 API。
首先,在 VS Code 中安裝 Code GPT 擴展。然後,按照以下步驟操作:
- 在您的機器上下載並運行 LM Studio。
- 搜索您想要使用的 Llama3 模型,例如 Llama3 Instruct Gradient 1 百萬令牌版本。
- 在 LM Studio 中創建一個本地伺服器來提供所選的 Llama3 模型。
- 在 VS Code 中,確保在 Code GPT 擴展設置中選擇 LM Studio 作為提供者。
現在,您可以通過要求 Llama3 模型編寫一個從 S3 下載文件並將其本地存儲的 Python 程序來測試集成。該模型將與 LM Studio 伺服器通信以生成響應。
雖然速度可能不如使用 Grok API 那麼快,但這種方法允許您在本地運行模型,而不需要依賴外部服務。此外,您還可以探索 LM Studio 中提供的其他模型,並將它們用作 VS Code 中的編碼共同駕駛。
探索 Olama 作為開源本地共同駕駛解決方案的力量
探索 Olama 作為開源本地共同駕駛解決方案的力量
要在 Code GPT 擴展中使用 Olama 作為您的共同駕駛,請按照以下步驟操作:
- 從官方網站 olama.com 下載並安裝 Olama。
- 通過點擊 Olama 應用程序啟動 Olama 伺服器。
- 在 Code GPT 擴展中,選擇 Olama 作為提供者。
- 指定您想要使用的模型,例如 Llama3 70 億模型。
- 要啟動 Llama3 70 億模型伺服器,請打開終端並運行命令
olama run llama3-70b
。 - 一旦模型加載完成,您就可以開始在 Code GPT 擴展中使用 Olama 作為您的共同駕駛。
Olama 是一個完全開源的解決方案,不像 LM Studio 有一些專有組件。雖然 LM Studio 在可使用的模型方面提供更多靈活性,但 Olama 提供了一個完全開源的替代方案。
使用 Olama 時,您需要手動啟動模型伺服器,這可能比 LM Studio 的設置更複雜一些。但是,這種方法使您可以完全控制所使用的模型,並確保您的共同駕駛解決方案是完全開源的。
Olama 的輸出質量將取決於您使用的模型,而 70 億 Llama3 模型的性能應該優於 8 億模型。請記住,在本地運行大型模型可能會導致推理速度較慢,與使用像 Grok 這樣的雲端 API 相比。
總的來說,Olama 是一個很好的開源選擇,可以在本地運行您的共同駕駛,它可以成為您開發工作流程中的一個有價值的工具。
結論
結論
在這個視頻中,我們探索了兩種本地替代 Grok API 的方法,在 VS Code 中使用 Llama3 作為編碼共同駕駛。我們首先設置 LM Studio 作為 API 伺服器,提供 Llama3 Instruct Gradient 1 百萬令牌模型。然後,我們演示了如何在 VS Code 的 Code GPT 擴展中使用這個模型,展示了它生成代碼和提供重構建議的能力。
接下來,我們研究了使用 Olama 作為在本地運行語言模型的開源解決方案。我們介紹了啟動 Olama 伺服器並將 Code GPT 擴展連接到 Llama3 70 億參數模型的過程。雖然性能比 Grok API 慢,但本地設置提供了更多的控制和靈活性。
這個視頻突出了這兩種方法之間的權衡,LM Studio 提供了更多的模型選擇,但是是一個封閉源代碼的解決方案,而 Olama 提供了一個開源替代方案,但模型選擇有限。最終,這兩種方法都展示了在本地環境中利用強大的語言模型提供編碼協助的能力,減少了對外部 API 的依賴。
常問問題
常問問題