פתיחת הכוח של למה-3 ו-LocalGPT: חוויית שיחה פרטית עם המסמכים שלך
גלה כיצד לפתוח את הכוח של Llama-3 ו-LocalGPT לחוויית שיחה פרטית ומאובטחת עם המסמכים שלך. חקור את תהליך ההתקנה, התאמת המודל, ודוגמאות שאלות ותשובות מעניינות. אופטם את עוזר ה-AI המבוסס על מסמכים שלך עם מדריך זה מקיף.
15 בפברואר 2025

שחרר את הכוח של המסמכים שלך עם Llama-3 ו-LocalGPT - פתרון מאובטח, פרטי ועשיר בתכונות לשיחה עם הנתונים שלך. גלה כיצד להגדיר ולהשתמש בקלות בטכנולוגיה החדשנית הזו כדי לשפר את ניהול הידע והחקירה של התוכן שלך.
התחלה עם Llama-3 ו-LocalGPT
שכפול המאגר והגדרת הסביבה הווירטואלית
התקנת החבילות הנדרשות
תצורת דגם Llama-3
קליטת קבצים והכנת מאגר הידע
שיחה עם המסמך באמצעות LocalGPT
התקדמויות עתידיות ב-LocalGPT
סיכום
התחלה עם Llama-3 ו-LocalGPT
התחלה עם Llama-3 ו-LocalGPT
כדי להתחיל עם Llama-3 בתוך LocalGPT, פעל לפי השלבים הבאים:
-
שכפל את מאגר הקוד של LocalGPT על-ידי לחיצה על הכפתור "Code" והעתקת הכתובת. פתח מסוף, נווט אל התיקייה הרצויה והרץ את הפקודה
git clone <URL>
. -
צור תיקייה ייעודית עבור דגם Llama-3, לדוגמה
local-gpt-llama3
. -
עבור אל התיקייה החדשה שנוצרה באמצעות
cd local-gpt-llama3
. -
צור סביבת עבודה וירטואלית באמצעות
conda create -n local-three python=3.10
והפעל אותה עםconda activate local-three
. -
התקן את החבילות הנדרשות על-ידי הרצת
pip install -r requirements.txt
. פעולה זו תוריד את כל החבילות הנחוצות, למעט חבילת Llama CPP. -
בהתאם לחומרה שלך (כרטיס מסך Nvidia או Apple Silicon), התקן את חבילת Llama CPP המתאימה באמצעות הפקודות המסופקות.
-
פתח את הפרויקט ב-Visual Studio Code והפעל את הסביבה הוירטואלית במסוף.
-
ערוך את קובץ
constants.py
כדי לציין את הדגם שברצונך להשתמש בו. עבור דגם Llama-3 הלא-מקוטע של Meta, ספק את מזהה הדגם וותר על השם הבסיסי כ-None
. -
אם אתה משתמש בדגם Llama-3 המשוער של Meta, תצטרך להיכנס לחשבון Hugging Face שלך באמצעות ממשק השורה הפקודית של Hugging Face. פעל לפי ההוראות כדי להשיג אסימון גישה והיכנס.
-
הרץ את הסקריפט
ingest.py
כדי לקלוט את המסמך הדוגמה המסופק עם LocalGPT. -
התחל את מושב השיחה על-ידי הרצת
python run_local_gpt.py
. הדגם יטען, ואז תוכל להתחיל לשאול שאלות הקשורות למסמך שנקלט. -
חקור את אפשרויות תבנית הפרומפט בקובץ
prompt_template_utils.py
והתאם את הפרומפטים לפי הצורך.
זה הכל! כעת אתה מוכן להשתמש ב-Llama-3 בתוך סביבת LocalGPT. תהנה מחוויית דגם השפה המקומית, הפרטית והמאובטחת שלך.
שכפול המאגר והגדרת הסביבה הווירטואלית
שכפול המאגר והגדרת הסביבה הווירטואלית
ראשית, עלינו לשכפל את המאגר. לחץ על הכפתור "Code" והעתק את הכתובת. לאחר מכן, פתח מסוף והקלד את הפקודה הבאה כדי לשכפל את המאגר:
git clone <repository_url>
לאחר מכן, נצור תיקייה ייעודית עבור דגם Lama 3. אתה יכול לקרוא לה "local-gpt" או משהו דומה:
mkdir local-gpt
cd local-gpt
עכשיו, עלינו ליצור סביבת עבודה וירטואלית לניהול התלויות של הפרויקט. נשתמש ב-conda לצורך זה:
conda create -n local-3 python=3.10
פעולה זו תיצור סביבת עבודה וירטואלית חדשה בשם "local-3" עם Python 3.10.
כדי להפעיל את הסביבה הוירטואלית, הרץ:
conda activate local-3
עכשיו אתה אמור לראות את שם הסביבה הוירטואלית בפרומפט המסוף, מה שמציין שהיא פעילה.
הבא, עלינו להתקין את החבילות הנדרשות. אפשר לעשות זאת על-ידי הרצת:
pip install -r requirements.txt
פעולה זו תתקין את כל החבילות הנחוצות, למעט חבילת Lama CPP. בהתאם לכך אם אתה משתמש בכרטיס מסך Nvidia או Apple Silicon, תצטרך להריץ פקודה שונה להתקנת Lama CPP:
עבור כרטיס מסך Nvidia:
pip install git+https://github.com/ggerganov/llama.cpp.git
עבור Apple Silicon:
pip install git+https://github.com/ggerganov/llama.cpp.git@apple
לאחר השלמת ההתקנה, אתה מוכן להתחיל להשתמש בפרויקט GPT המקומי עם דגם Lama 3.
התקנת החבילות הנדרשות
התקנת החבילות הנדרשות
כדי להתחיל עם Lama 3 בתוך Local GPT, עלינו תחילה להתקין את החבילות הנדרשות. להלן כיצד ניתן לעשות זאת:
-
שכפל את מאגר Local GPT על-ידי לחיצה על הכפתור "Code" והעתקת הכתובת. לאחר מכן, פתח מסוף והרץ את הפקודה הבאה כדי לשכפל את המאגר:
git clone <repository_url>
-
צור תיקייה ייעודית עבור דגם Lama 3 על-ידי מעבר אל התיקייה המשוכפלת וביצוע יצירת תיקייה חדשה:
cd local-gpt mkdir lama3 cd lama3
-
צור סביבת עבודה וירטואלית באמצעות conda והתקן את החבילות הנדרשות:
conda create -n lama3 python=3.10 conda activate lama3 pip install -r requirements.txt
-
בהתאם לכך אם אתה משתמש בכרטיס מסך Nvidia או Apple Silicon, התקן את חבילת Lama CPP המתאימה:
- עבור כרטיס מסך Nvidia:
pip install git+https://github.com/ggerganov/llama.cpp.git
- עבור Apple Silicon:
pip install git+https://github.com/ggerganov/llama.cpp.git@apple
- עבור כרטיס מסך Nvidia:
-
לאחר השלמת ההתקנה, אתה מוכן להתחיל להשתמש ב-Lama 3 בתוך Local GPT.
תצורת דגם Llama-3
תצורת דגם Llama-3
כדי להגדיר את דגם Llama-3 בתוך פרויקט GPT המקומי, פעל לפי השלבים הבאים:
- פתח את קובץ
constants.py
ומצא את המשתניםmodel_id
ו-model_base_name
. - אם אתה משתמש בדגם לא-מקוטע, פשוט ספק את מזהה הדגם, שהוא כתובת מאגר Hugging Face. לדוגמה, אם ברצונך להשתמש בדגם Llama-38B, מזהה הדגם יהיה
"decapoda-research/llama-38b-hf"
. - אם ברצונך להשתמש בדגם מקוטע, תצטרך גם לספק את שם הקובץ
.ggf
עבור רמת הקיטוע הספציפית שברצונך להשתמש בה. לדוגמה,"decapoda-research/llama-38b-hf-quantized-ggml-q4_0.ggf"
. - אם אתה משתמש בגרסת Meta של דגם Llama-3, תצטרך להיכנס לחשבון Hugging Face Hub שלך. ניתן לעשות זאת על-ידי הרצת הפקודה הבאה במסוף:
לאחר מכן, ספק את אסימון הגישה של Hugging Face כאשר תתבקש.hugging-face-cli login
- לאחר שהגדרת את הדגם, תוכל להמשיך לקלוט את הקבצים שלך ולהתחיל לשוחח עם הדגם באמצעות פרויקט GPT המקומי.
קליטת קבצים והכנת מאגר הידע
קליטת קבצים והכנת מאגר הידע
כדי לקלוט קבצים והכין את מאגר הידע עבור GPT המקומי, פעל לפי השלבים הבאים:
-
הפעל את הסביבה הוירטואלית שנוצרה קודם:
conda activate local_3
-
הרץ את הסקריפט
ingest.py
כדי לקלוט את הקבצים:python ingest.py
פעולה זו תתחיל את תהליך הקליטה וחלוקת המסמכים לקטעים. כברירת מחדל, היא משתמשת בדגם ההטמעה
instructor-large
, אך באפשרותך לשנות את הדגם על-ידי עריכת קובץconstants.py
. -
אם אתה משתמש בדגם משוער כמו דגם Lama 3 של Meta, תצטרך להיכנס לחשבון Hugging Face שלך באמצעות ממשק השורה הפקודית של Hugging Face:
hugging-face-cli login
ספק את אסימון הגישה של Hugging Face כאשר תתבקש.
-
לאחר השלמת הקליטה, תוכל להתחיל לשוחח עם המסמכים על-ידי הרצת הסקריפט
run_local_gpt.py
:python run_local_gpt.py
פעולה זו תטען את הדגם ותאפשר לך לאזור את מאגר הידע.
-
אם ברצונך להשתמש בתבנית פרומפט שונה, באפשרותך לערוך את קובץ
prompt_template_utils.py
. התבניות הפרומפט הזמינות מפורטות בקובץrun_local_gpt.py
.
זה הכל! כעת אתה מוכן להשתמש ב-GPT המקומי עם דגם Lama 3 ובמסמכים שקלטת.
שיחה עם המסמך באמצעות LocalGPT
שיחה עם המסמך באמצעות LocalGPT
כדי להתחיל לשוחח עם המסמך באמצעות LocalGPT, פעל לפי השלבים הבאים:
-
הפעל את הסביבה הוירטואלית שיצרת קודם:
conda activate local_3
-
הרץ את הפקודה
python run_local_gpt.py
כדי להתחיל את ממשק השיחה. פעולה זו תטען את הדגם ותכין את המסמך לאינטראקציה. -
לאחר שהדגם יטען, תוכל להתחיל לשאול שאלות הקשורות למסמך. לדוגמה, ניתן לשאול "מהי כוונון הוראה?" כדי לקבל מידע על נושא זה מההקשר המסופק.
-
הדגם יייצר תגובות בהתבסס על תוכן המסמך. התגובות יהיו קצרות וישיבו ישירות על השאלה שנשאלה.
-
ניתן להמשיך לשאול שאלות שונות כדי לחקור את תוכן המסמך ולקבל תובנות מממשק LocalGPT.
זכור, כל העיבוד מתבצע מקומית במחשב שלך, מה שמבטיח את הפרטיות והאבטחה של הנתונים שלך.
התקדמויות עתידיות ב-LocalGPT
התקדמויות עתידיות ב-LocalGPT
Local GPT נמצא בהתפתחות מתמדת, והמתחזקים של הפרויקט עובדים על מספר תכונות חדשות ושיפורים מרגשים. חלק מההתקדמויות המפתיעות העיקריות כוללות:
- טכניקות אחזור מתקדמות: הקוד מתוכנן מחדש כדי לשלב טכניקות אח
שאלות נפוצות
שאלות נפוצות