إطلاق طاقة Llama-3 و LocalGPT: تجربة دردشة خاصة مع مستنداتك
اكتشف كيفية إلغاء قفل قوة Llama-3 و LocalGPT لتجربة دردشة خاصة وآمنة مع مستنداتك. استكشف عملية الإعداد وتخصيص النموذج وأمثلة الأسئلة والأجوبة المشاركة. قم بتحسين مساعدك الذكي القائم على المستندات باستخدام هذا الدليل الشامل.
١٤ فبراير ٢٠٢٥

افتح قوة مستنداتك مع Llama-3 و LocalGPT - حل آمن وخاص وغني بالميزات للدردشة مع بياناتك الخاصة. اكتشف كيفية إعداد واستخدام هذه التقنية المتطورة بسهولة لتعزيز إدارة المعرفة واستكشاف المحتوى الخاص بك.
البدء مع Llama-3 و LocalGPT
استنساخ المستودع وإعداد البيئة الافتراضية
تثبيت الحزم المطلوبة
تكوين نموذج Llama-3
استيعاب الملفات وإعداد قاعدة المعرفة
الدردشة مع المستند باستخدام LocalGPT
التطورات القادمة في LocalGPT
الخاتمة
البدء مع Llama-3 و LocalGPT
البدء مع Llama-3 و LocalGPT
للبدء باستخدام Llama-3 ضمن LocalGPT، اتبع هذه الخطوات:
-
استنسخ مستودع LocalGPT عن طريق النقر على الزر "Code" ونسخ الرابط. افتح طرفية، انتقل إلى الدليل المرغوب، وقم بتشغيل
git clone <الرابط>
. -
أنشئ مجلدًا مخصصًا لنموذج Llama-3، على سبيل المثال
local-gpt-llama3
. -
انتقل إلى الدلير الجديد المنشأ باستخدام
cd local-gpt-llama3
. -
أنشئ بيئة افتراضية باستخدام
conda create -n local-three python=3.10
وقم بتنشيطها بـconda activate local-three
. -
قم بتثبيت الحزم المطلوبة عن طريق تشغيل
pip install -r requirements.txt
. سيقوم هذا بتنزيل جميع الحزم الضرورية، باستثناء حزمة Llama CPP. -
اعتمادًا على جهازك (بطاقة رسومات Nvidia أو Apple Silicon)، قم بتثبيت حزمة Llama CPP المناسبة باستخدام الأوامر المقدمة.
-
افتح المشروع في Visual Studio Code وقم بتنشيط البيئة الافتراضية في الطرفية.
-
قم بتعديل ملف
constants.py
لتحديد النموذج الذي تريد استخدامه. بالنسبة لنموذج Llama-3 غير المكمم من Meta، قدم معرف النموذج واترك الاسم الأساسي كـNone
. -
إذا كنت تستخدم نموذج Llama-3 المغلق من Meta، فستحتاج إلى تسجيل الدخول إلى حساب Hugging Face الخاص بك باستخدام واجهة سطر الأوامر Hugging Face. اتبع التعليمات للحصول على رمز الوصول وتسجيل الدخول.
-
قم بتشغيل البرنامج النصي
ingest.py
لاستيعاب المستند المثالي المقدم مع LocalGPT. -
ابدأ جلسة الدردشة عن طريق تشغيل
python run_local_gpt.py
. سيتم تحميل النموذج، ويمكنك البدء في طرح الأسئلة المتعلقة بالمستند المستوعب. -
استكشف خيارات قالب المطالبة في ملف
prompt_template_utils.py
وقم بتخصيص المطالبات حسب الحاجة.
ذلك هو! الآن أنت جاهز لاستخدام Llama-3 ضمن بيئة LocalGPT. استمتع بتجربة نموذج اللغة الآمنة والخاصة والمحلية.
استنساخ المستودع وإعداد البيئة الافتراضية
استنساخ المستودع وإعداد البيئة الافتراضية
أولاً، نحتاج إلى استنساخ المستودع. انقر على الزر "Code" وانسخ الرابط. ثم افتح طرفية وأدخل الأمر التالي لاستنساخ المستودع:
git clone <رابط_المستودع>
بعد ذلك، سنقوم بإنشاء مجلد مخصص لنموذج Lama 3. يمكنك تسميته "local-gpt" أو شيئًا مشابهًا:
mkdir local-gpt
cd local-gpt
الآن، نحتاج إلى إنشاء بيئة افتراضية لإدارة تبعيات المشروع. سنستخدم conda لهذا الغرض:
conda create -n local-3 python=3.10
سيقوم هذا بإنشاء بيئة افتراضية جديدة باسم "local-3" مع Python 3.10.
لتنشيط البيئة الافتراضية، قم بتشغيل:
conda activate local-3
يجب أن ترى الآن اسم البيئة الافتراضية في محث طرفيتك، مما يشير إلى أنها نشطة.
بعد ذلك، نحتاج إلى تثبيت الحزم المطلوبة. يمكننا القيام بذلك عن طريق تشغيل:
pip install -r requirements.txt
سيقوم هذا بتثبيت جميع الحزم الضرورية، باستثناء حزمة Lama CPP. اعتمادًا على ما إذا كنت تستخدم بطاقة رسومات Nvidia أو Apple Silicon، ستحتاج إلى تشغيل أمر مختلف لتثبيت Lama CPP:
بالنسبة لبطاقة رسومات Nvidia:
pip install git+https://github.com/ggerganov/llama.cpp.git
بالنسبة لـ Apple Silicon:
pip install git+https://github.com/ggerganov/llama.cpp.git@apple
بمجرد اكتمال التثبيت، ستكون جاهزًا لبدء استخدام مشروع GPT المحلي مع نموذج Lama 3.
تثبيت الحزم المطلوبة
تثبيت الحزم المطلوبة
للبدء باستخدام Lama 3 ضمن Local GPT، نحتاج أولاً إلى تثبيت الحزم المطلوبة. إليك كيفية القيام بذلك:
-
استنسخ مستودع Local GPT عن طريق النقر على الزر "Code" ونسخ الرابط. ثم افتح طرفية وقم بتشغيل الأمر التالي لاستنساخ المستودع:
git clone <رابط_المستودع>
-
أنشئ مجلدًا مخصصًا لنموذج Lama 3 عن طريق التغيير إلى الدليل المنسوخ وإنشاء مجلد جديد:
cd local-gpt mkdir lama3 cd lama3
-
أنشئ بيئة افتراضية باستخدام conda وقم بتثبيت الحزم المطلوبة:
conda create -n lama3 python=3.10 conda activate lama3 pip install -r requirements.txt
-
اعتمادًا على ما إذا كنت تستخدم بطاقة رسومات Nvidia أو Apple Silicon، قم بتثبيت حزمة Lama CPP المناسبة:
- بالنسبة لبطاقة رسومات Nvidia:
pip install git+https://github.com/ggerganov/llama.cpp.git
- بالنسبة لـ Apple Silicon:
pip install git+https://github.com/ggerganov/llama.cpp.git@apple
- بالنسبة لبطاقة رسومات Nvidia:
-
بمجرد اكتمال التثبيت، ستكون جاهزًا لبدء استخدام Lama 3 ضمن Local GPT.
تكوين نموذج Llama-3
تكوين نموذج Llama-3
لتكوين نموذج Llama-3 ضمن مشروع GPT المحلي، اتبع هذه الخطوات:
- افتح ملف
constants.py
وحدد متغيريmodel_id
وmodel_base_name
. - إذا كنت تستخدم نموذجًا غير مكمم، فقم ببساطة بتوفير معرف النموذج، وهو عنوان مستودع Hugging Face. على سبيل المثال، إذا كنت تريد استخدام نموذج Llama-38B، فسيكون معرف النموذج
"decapoda-research/llama-38b-hf"
. - إذا كنت تريد استخدام نموذج مكمم، فستحتاج أيضًا إلى توفير اسم ملف
.ggf
للمستوى المحدد من التكميم الذي تريد استخدامه. على سبيل المثال،"decapoda-research/llama-38b-hf-quantized-ggml-q4_0.ggf"
. - إذا كنت تستخدم إصدار Meta من نموذج Llama-3، فستحتاج إلى تسجيل الدخول إلى حساب Hugging Face Hub الخاص بك. يمكنك القيام بذلك عن طريق تشغيل الأمر التالي في طرفيتك:
ثم قم بتوفير رمز الوصول الخاص بك إلى Hugging Face عند المطالبة.hugging-face-cli login
- بمجرد تكوين النموذج، يمكنك المتابعة لاستيعاب الملفات وبدء الدردشة مع النموذج باستخدام مشروع GPT المحلي.
استيعاب الملفات وإعداد قاعدة المعرفة
استيعاب الملفات وإعداد قاعدة المعرفة
لاستيعاب الملفات وإعداد قاعدة المعرفة لـ GPT المحلي، اتبع هذه الخطوات:
-
قم بتنشيط البيئة الافتراضية التي أنشأتها سابقًا:
conda activate local_3
-
قم بتشغيل البرنامج النصي
ingest.py
لاستيعاب الملفات:python ingest.py
سيبدأ هذا عملية الاستيعاب وتقسيم المستندات إلى أجزاء. بشكل افتراضي، يستخدم نموذج التضمين "instructor-large"، ولكن يمكنك تغيير النموذج عن طريق تعديل ملف
constants.py
. -
إذا كنت تستخدم نموذجًا مغلقًا مثل نموذج Meta Lama 3، فستحتاج إلى تسجيل الدخول إلى حساب Hugging Face الخاص بك باستخدام واجهة سطر الأوامر Hugging Face:
hugging-face-cli login
قم بتوفير رمز الوصول الخاص بك إلى Hugging Face عند المطالبة.
-
بمجرد اكتمال عملية الاستيعاب، يمكنك بدء الدردشة مع المستندات عن طريق تشغيل البرنامج النصي
run_local_gpt.py
:python run_local_gpt.py
سيقوم هذا بتحميل النموذج وتمكينك من التفاعل مع قاعدة المعرفة.
-
إذا كنت تريد استخدام قالب مطالبة مختلف، يمكنك تعديل ملف
prompt_template_utils.py
. تم سرد قوالب المطالبة المتاحة في ملفrun_local_gpt.py
.
ذلك هو! الآن أنت جاهز لاستخدام GPT المحلي مع نموذج Lama 3 ومستنداتك المستوعبة.
الدردشة مع المستند باستخدام LocalGPT
الدردشة مع المستند باستخدام LocalGPT
لبدء الدردشة مع المستند باستخدام LocalGPT، اتبع هذه الخطوات:
-
قم بتنشيط البيئة الافتراضية التي أنشأتها سابقًا:
conda activate local_3
-
قم بتشغيل الأمر
python run_local_gpt.py
لبدء واجهة الدردشة. سيقوم هذا بتحميل النموذج وإعداد المستند للتفاعل. -
بمجرد تحميل النموذج، يمكنك البدء في طرح الأسئلة المتعلقة بالمستند. على سبيل المثال، يمكنك السؤال "ما هو التعليم التوجيهي؟" للحصول على معلومات حول هذا الموضوع من السياق المقدم.
-
سيقوم النموذج بتوليد استجابات استنادًا إلى محتوى المستند. ستكون الاستجابات موجزة وتتناول السؤال المطروح مباشرة.
-
يمكنك الاستمرار في طرح أسئلة مختلفة لاستكشاف محتوى المستند والحصول على رؤى من واجهة LocalGPT.
تذكر، يتم إجراء جميع المعالجة محليًا على جهازك، مما يضمن خصوصية وأمان بياناتك.
التطورات القادمة في LocalGPT
التطورات القادمة في LocalGPT
يتط
التعليمات
التعليمات