Mở khóa sức mạnh của Llama-3 và LocalGPT: Trải nghiệm trò chuyện riêng tư với Tài liệu của bạn
Khám phá cách mở khóa sức mạnh của Llama-3 và LocalGPT để có trải nghiệm trò chuyện riêng tư, an toàn với các tài liệu của bạn. Khám phá quy trình thiết lập, tùy chỉnh mô hình và các ví dụ Q&A hấp dẫn. Tối ưu hóa trợ lý AI dựa trên tài liệu của bạn với hướng dẫn toàn diện này.
24 tháng 2, 2025

Mở khóa sức mạnh của tài liệu của bạn với Llama-3 và LocalGPT - một giải pháp an toàn, riêng tư và đầy tính năng để trò chuyện với dữ liệu của riêng bạn. Khám phá cách thiết lập và sử dụng một cách dễ dàng công nghệ tiên tiến này để nâng cao quản lý kiến thức và khám phá nội dung của bạn.
Bắt đầu với Llama-3 và LocalGPT
Nhân bản Kho lưu trữ và Thiết lập Môi trường ảo
Cài đặt các Gói cần thiết
Cấu hình Mô hình Llama-3
Nhập tệp và Chuẩn bị Cơ sở Kiến thức
Trò chuyện với Tài liệu bằng LocalGPT
Những Tiến bộ Sắp tới trong LocalGPT
Kết luận
Bắt đầu với Llama-3 và LocalGPT
Bắt đầu với Llama-3 và LocalGPT
Để bắt đầu với Llama-3 trong LocalGPT, hãy làm theo các bước sau:
-
Nhân bản kho lưu trữ LocalGPT bằng cách nhấp vào nút "Code" và sao chép URL. Mở một terminal, điều hướng đến thư mục mong muốn và chạy
git clone <URL>
. -
Tạo một thư mục chuyên dụng cho mô hình Llama-3, ví dụ:
local-gpt-llama3
. -
Chuyển đến thư mục vừa tạo bằng
cd local-gpt-llama3
. -
Tạo một môi trường ảo bằng
conda create -n local-three python=3.10
và kích hoạt nó bằngconda activate local-three
. -
Cài đặt các gói cần thiết bằng cách chạy
pip install -r requirements.txt
. Điều này sẽ tải xuống tất cả các gói cần thiết, ngoại trừ gói Llama CPP. -
Tùy thuộc vào phần cứng của bạn (GPU Nvidia hoặc Apple Silicon), cài đặt gói Llama CPP phù hợp bằng các lệnh được cung cấp.
-
Mở dự án trong Visual Studio Code và kích hoạt môi trường ảo trong terminal.
-
Sửa đổi tệp
constants.py
để chỉ định mô hình bạn muốn sử dụng. Đối với mô hình Llama-3 không được định lượng từ Meta, hãy cung cấp ID mô hình và giữ tên cơ sở làNone
. -
Nếu bạn đang sử dụng mô hình Llama-3 có cổng từ Meta, bạn sẽ cần đăng nhập vào tài khoản Hugging Face của mình bằng cách sử dụng CLI Hugging Face. Làm theo hướng dẫn để nhận mã thông báo truy cập và đăng nhập.
-
Chạy tệp
ingest.py
để thu thập tài liệu mẫu được cung cấp với LocalGPT. -
Bắt đầu phiên trò chuyện bằng cách chạy
python run_local_gpt.py
. Mô hình sẽ được tải và bạn có thể bắt đầu đặt câu hỏi liên quan đến tài liệu đã thu thập. -
Khám phá các tùy chọn mẫu nhắc trong tệp
prompt_template_utils.py
và tùy chỉnh các mẫu nhắc theo nhu cầu.
Vậy là xong! Bây giờ bạn đã sẵn sàng sử dụng Llama-3 trong môi trường LocalGPT. Hãy tận hưởng trải nghiệm mô hình ngôn ngữ cục bộ, an toàn và riêng tư của bạn.
Nhân bản Kho lưu trữ và Thiết lập Môi trường ảo
Nhân bản Kho lưu trữ và Thiết lập Môi trường ảo
Đầu tiên, chúng ta cần nhân bản kho lưu trữ. Nhấp vào nút "Code" và sao chép URL. Sau đó, mở một terminal và nhập lệnh sau để nhân bản kho lưu trữ:
git clone <repository_url>
Tiếp theo, chúng ta sẽ tạo một thư mục chuyên dụng cho mô hình Lama 3. Bạn có thể đặt tên là "local-gpt" hoặc tương tự:
mkdir local-gpt
cd local-gpt
Bây giờ, chúng ta cần tạo một môi trường ảo để quản lý các phụ thuộc của dự án. Chúng tôi sẽ sử dụng conda cho việc này:
conda create -n local-3 python=3.10
Điều này sẽ tạo một môi trường ảo mới có tên "local-3" với Python 3.10.
Để kích hoạt môi trường ảo, chạy:
conda activate local-3
Bây giờ bạn sẽ thấy tên của môi trường ảo trong nhắc lệnh terminal, cho biết nó đã được kích hoạt.
Tiếp theo, chúng ta cần cài đặt các gói cần thiết. Chúng ta có thể làm điều này bằng cách chạy:
pip install -r requirements.txt
Điều này sẽ cài đặt tất cả các gói cần thiết, ngoại trừ gói Lama CPP. Tùy thuộc vào việc bạn đang sử dụng GPU Nvidia hay Apple Silicon, bạn sẽ cần chạy lệnh khác để cài đặt Lama CPP:
Đối với GPU Nvidia:
pip install git+https://github.com/ggerganov/llama.cpp.git
Đối với Apple Silicon:
pip install git+https://github.com/ggerganov/llama.cpp.git@apple
Khi cài đặt hoàn tất, bạn đã sẵn sàng để bắt đầu sử dụng dự án GPT cục bộ với mô hình Lama 3.
Cài đặt các Gói cần thiết
Cài đặt các Gói cần thiết
Để bắt đầu với Lama 3 trong Local GPT, trước tiên chúng ta cần cài đặt các gói cần thiết. Đây là cách bạn có thể thực hiện:
-
Nhân bản kho lưu trữ Local GPT bằng cách nhấp vào nút "Code" và sao chép URL. Sau đó, mở một terminal và chạy lệnh sau để nhân bản kho lưu trữ:
git clone <repository_url>
-
Tạo một thư mục chuyên dụng cho mô hình Lama 3 bằng cách chuyển đến thư mục đã nhân bản và tạo một thư mục mới:
cd local-gpt mkdir lama3 cd lama3
-
Tạo một môi trường ảo bằng conda và cài đặt các gói cần thiết:
conda create -n lama3 python=3.10 conda activate lama3 pip install -r requirements.txt
-
Tùy thuộc vào việc bạn đang sử dụng GPU Nvidia hay Apple Silicon, hãy cài đặt gói Lama CPP phù hợp:
- Đối với GPU Nvidia:
pip install git+https://github.com/ggerganov/llama.cpp.git
- Đối với Apple Silicon:
pip install git+https://github.com/ggerganov/llama.cpp.git@apple
- Đối với GPU Nvidia:
-
Khi cài đặt hoàn tất, bạn đã sẵn sàng để bắt đầu sử dụng Lama 3 trong Local GPT.
Cấu hình Mô hình Llama-3
Cấu hình Mô hình Llama-3
Để cấu hình mô hình Llama-3 trong dự án GPT cục bộ, hãy làm theo các bước sau:
- Mở tệp
constants.py
và tìm các biếnmodel_id
vàmodel_base_name
. - Nếu bạn đang sử dụng một mô hình không được định lượng, chỉ cần cung cấp ID mô hình, đó là địa chỉ của kho lưu trữ Hugging Face. Ví dụ, nếu bạn muốn sử dụng mô hình Llama-38B, ID mô hình sẽ là
"decapoda-research/llama-38b-hf"
. - Nếu bạn muốn sử dụng một mô hình được định lượng, bạn cũng sẽ cần cung cấp tên tệp
.ggf
cho mức định lượng cụ thể mà bạn muốn sử dụng. Ví dụ,"decapoda-research/llama-38b-hf-quantized-ggml-q4_0.ggf"
. - Nếu bạn đang sử dụng phiên bản Meta của mô hình Llama-3, bạn sẽ cần đăng nhập vào tài khoản Hugging Face Hub của mình. Bạn có thể làm điều này bằng cách chạy lệnh sau trong terminal:
Sau đó, cung cấp mã thông báo truy cập Hugging Face khi được nhắc.hugging-face-cli login
- Sau khi đã cấu hình mô hình, bạn có thể tiếp tục thu thập tệp và bắt đầu trò chuyện với mô hình bằng cách sử dụng dự án GPT cục bộ.
Nhập tệp và Chuẩn bị Cơ sở Kiến thức
Nhập tệp và Chuẩn bị Cơ sở Kiến thức
Để thu thập tệp và chuẩn bị cơ sở kiến thức cho GPT cục bộ, hãy làm theo các bước sau:
-
Kích hoạt môi trường ảo đã tạo trước đó:
conda activate local_3
-
Chạy tệp
ingest.py
để thu thập tệp:python ingest.py
Điều này sẽ bắt đầu quá trình thu thập và chia tài liệu thành các phần. Theo mặc định, nó sử dụng mô hình nhúng "instructor-large", nhưng bạn có thể thay đổi mô hình bằng cách sửa đổi tệp
constants.py
. -
Nếu bạn đang sử dụng một mô hình có cổng như mô hình Meta Lama 3, bạn sẽ cần đăng nhập vào tài khoản Hugging Face của mình bằng cách sử dụng CLI Hugging Face:
hugging-face-cli login
Cung cấp mã thông báo truy cập Hugging Face khi được nhắc.
-
Khi quá trình thu thập hoàn tất, bạn có thể bắt đầu trò chuyện với các tài liệu bằng cách chạy tệp
run_local_gpt.py
:python run_local_gpt.py
Điều này sẽ tải mô hình và cho phép bạn tương tác với cơ sở kiến thức.
-
Nếu bạn muốn sử dụng mẫu nhắc khác, bạn có thể sửa đổi tệp
prompt_template_utils.py
. Các mẫu nhắc có sẵn được liệt kê trong tệprun_local_gpt.py
.
Vậy là xong! Bây giờ bạn đã sẵn sàng sử dụng GPT cục bộ với mô hình Lama 3 và các tài liệu đã thu thập.
Trò chuyện với Tài liệu bằng LocalGPT
Trò chuyện với Tài liệu bằng LocalGPT
Để bắt đầu trò chuyện với tài liệu bằng cách sử dụng LocalGPT, hãy làm theo các bước sau:
-
Kích hoạt môi trường ảo bạn đã tạo trước đó:
conda activate local_3
-
Chạy lệnh
python run_local_gpt.py
để bắt đầu giao diện trò chuyện. Điều này sẽ tải mô hình và chuẩn bị tài liệu để tương tác. -
Khi mô hình đã được tải, bạn có thể bắt đầu đặt câu hỏi liên quan đến tài liệu. Ví dụ, bạn có thể hỏi "Instruction tuning là gì?" để nhận thông tin về chủ đề đó từ nội dung được cung cấp.
-
Mô hình sẽ tạo ra các phản hồi dựa trên nội dung của tài liệu. Các phản hồi sẽ ngắn gọn và trực tiếp giải quyết câu hỏi được đặt ra.
-
Bạn có thể tiếp tục đặt các câu hỏi khác nhau để khám phá nội dung của tài liệu và nhận được những hiểu biết từ giao diện LocalGPT.
Hãy nhớ rằng, tất cả các quá trình xử lý đều diễn ra cục bộ trên máy tính của bạn, đảm bảo tính riêng tư và bảo mật của dữ liệu của bạn.
Những Tiến bộ Sắp tới trong LocalGPT
Những Tiến bộ Sắp tới trong LocalGPT
Local GPT đang không ngừng phát triển, và các nhà duy trì dự án đang làm việc trên nhiều tính năng và cải tiến mới đầy hứa hẹn. Một số nâng cấp chính sắp tới bao gồm:
- Kỹ thuật Truy Xuất Nâng Cao: Mã nguồn đang được viết lại để kết hợp các kỹ thuật truy xuất nâng cao hơn, chẳng hạn như mở rộng truy vấn, mở rộng ngữ cảnh và xếp hạng. Những kỹ thuật này sẽ tăng cường khả năng của mô hình trong việ
Câu hỏi thường gặp
Câu hỏi thường gặp

