בנה LLM-OS: שחרר עוזרים אינטליגנטיים עם זיכרון, ידע וכלים
גלה כיצד לבנות LLM-OS: מסגרת אינטראקטיבית ליצירת עוזרים אינטליגנטיים עם זיכרון, ידע וכלים. שחרר את הכוח של דגמי שפה גדולים ב-AWS. אופטם את יישומי ה-AI שלך עם מדריך זה המקיף.
17 בפברואר 2025

שחרר את כוחם של עוזרי AI עם זיכרון, ידע וכלים! גלה כיצד לבנות את הסוכן החכם שלך באמצעות מסגרת Phidata, אשר כעת משולבת עם LLM-OS לפתרונות AI מקיפים ופרקטיים. חקור את היתרונות של טכנולוגיה מתקדמת זו ולמד כיצד להטמיע את עוזר ה-AI שלך ב-AWS, כל זאת מבלי להזכיר שהתוכן מושאל מוידאו.
הפעל את LLM-OS באופן מקומי
הפעל את LLM-OS באופן מקומי
כדי להפעיל את LLM-OS באופן מקומי, פעל לפי השלבים הבאים:
- צור סביבת עבודה וירטואלית של Python כדי לשמור על התלויות שלך מבודדות.
- התקן את החבילות הנדרשות, כולל את הספריות האופציונליות של AWS עבור מסגרת FI-Data.
- התקן את Docker Desktop אם עדיין לא עשית זאת.
- צור את קוד המקור של LLM-OS באמצעות הפקודה
fi workspace create
, ובחר בתבנית "LLM-OS" כדי לשכפל אותה. - ייצא את מפתח ה-API של OpenAI, מכיוון שתשתמש ב-GPT-4 כמודל שפה.
- ייצא את מפתח ה-API של Anthropic עבור עוזר המחקר (Exa).
- הפעל את
fi workspace up
כדי להפעיל את יישום LLM-OS, שיצור את המכלים הדרושים של Docker עבור מסד הנתונים ויישום LLM-OS. - פתח את הדפדפן שלך ועבור אל
http://localhost:8501
כדי לגשת למשטח LLM-OS. - הזן שם משתמש והתחל לאזור עם LLM-OS, שיש לו גישה למחשבון, מערכת קבצים, חיפוש באינטרנט ו-Yahoo Finance.
- באפשרותך גם להוסיף חברי צוות עוזר אחרים, כמו עוזר Python, אנליסט נתונים או עוזר השקעות, כפי שהוצג בדוגמאות אחרות.
כדי לבדוק את LLM-OS, נסה להוסיף פוסט בלוג למאגר הידע ולשאול שאלה כמו "מה היה שאם אלטמן מאחל שהוא היה יודע?". LLM-OS יחפש במאגר הידע שלו וישתמש בייצור מבוסס אחזור כדי לספק את התשובה.
אתה יכול גם לבדוק את המחשבון על ידי שאילת "מה זה 10 בפקטוריאל?", וLLM-OS ישתמש במחשבון כדי לספק את התוצאה.
ההתקנה המקומית מכילה הכל בתוך Docker, מה שהופך את הניהול והפריסה לקלים יותר.
הפעל את LLM-OS ב-AWS
הפעל את LLM-OS ב-AWS
כדי להפעיל את LLM-OS ב-AWS, פעל לפי השלבים הבאים:
- ייצא את פרטי ה-AWS שלך על ידי התקנת ממשק השורה של AWS והרצת
aws configure
. - הוסף את מזהי הרשת המשנית שלך לקובץ
workspace_settings.py
. - הוסף סיסמה ליישום ולמסד הנתונים בקובץ
workspace_settings.py
. - צור את משאבי ה-AWS שלך על ידי הרצת
fir workspace up --prod-infra-aws
. זה יקים את התשתית הדרושה, כולל קבוצות אבטחה, סודות, מופע מסד נתונים, מאזני עומס ומכלול ECS. - לאחר יצירת המשאבים, תקבל כתובת DNS של מאזן העומס שאפשר להשתמש בה כדי לגשת ל-LLM-OS הפועל ב-AWS.
- באפשרותך גם לגשת לממשק ה-API של LLM-OS על ידי הוספת
/api
לכתובת ה-DNS של מאזן העומס. - בדוק את LLM-OS על ידי הוספת פוסט בלוג ושאילת שאלות. באפשרותך גם לנסות משימות מורכבות יותר, כמו השוואת מניות באמצעות כלי Yahoo Finance.
זכור לבדוק את התיעוד של Fi Data למידע מפורט יותר והוראות על אופן התאמה והרחבה של LLM-OS.
בדוק את פונקציונליות ה-LLM-OS
בדוק את פונקציונליות ה-LLM-OS
עכשיו שיש לנו את LLM-OS פועל ב-AWS, בואו נבדוק את הפונקציונליות שלו. נבצע מספר משימות כדי לראות כיצד מערכת זו פועלת.
ראשית, בואו נוסיף פוסט בלוג למאגר הידע ואז נשאל את LLM-OS שאלה על התוכן:
-
הוסף פוסט בלוג חדש למאגר הידע:
- LLM-OS יעבד את פוסט הבלוג ויאחסן את המידע במסד הנתונים הווקטורי.
-
שאל את השאלה: "מה היה שאם אלטמן מאחל שהוא היה יודע?"
- LLM-OS יחפש במאגר הידע שלו, יאחזר את המידע הרלוונטי וישתמש בייצור מבוסס אחזור כדי לספק את התשובה.
לאחר מכן, בואו נבדוק את פונקציונליות המחשבון:
- שאל את LLM-OS: "מה זה 10 בפקטוריאל?"
- LLM-OS ישתמש ביכולות המחשבון שלו כדי לחשב את הפקטוריאל ולהחזיר את התוצאה.
לבסוף, בואו נחקור את יכולת LLM-OS לבצע משימות מורכבות יותר:
- בקש מ-LLM-OS "לכתוב השוואה בין NVIDIA ו-AMD באמצעות נתוני Yahoo Finance".
- LLM-OS יעשה שימוש בגישה שלו לנתוני Yahoo Finance, כמו גם ביכולות הייצור של שפה טבעית, כדי לספק ניתוח השוואתי של שתי החברות.
בבדיקת פונקציונליות זו, תוכל לראות כיצד LLM-OS יכול לשמש כעוזר AI חזק, המסוגל לגשת ולשלב משאבים מרובים כדי לפתור בעיות מורכבות. האינטגרציה החלקה של מודל השפה הגדול, מאגר הידע והכלים החיצוניים מדגימה את הפוטנציאל של מסגרת זו לבניית יישומי AI מתקדמים.
מסקנה
מסקנה
מערכת ההפעלה של מודל השפה הגדול (LLM OS) היא מסגרת עוצמתית המאפשרת לך לבנות עוזרי AI עם זיכרון ארוך טווח, ידע הקשרי וביכולת לבצע פעולות באמצעות קריאת פונקציות. על ידי שילוב מסגרת Fi-data עם LLM OS, תוכל ליצור פתרון מקיף ופרקטי לצרכי ה-AI שלך.
הדגשים העיקריים של יישום LLM OS שנדונו בטיוטה זו הם:
-
ניצול של GPT-4 כמודל שפה גדול: LLM OS משתמש ב-GPT-4 כמודל השפה הבסיסי, מספק יכולות עיבוד שפה טבעית מתקדמות.
-
גישה לכלי תוכנה 1.0: LLM OS מעניק לעוזר ה-AI גישה למגוון כלי תוכנה, כמו מחשבון, מערכת קבצים וחיפוש באינטרנט, כדי להעשיר את יכולות פתרון הבעיות שלו.
-
זיכרון קבוע וניהול ידע: LLM OS משתמש במסד נתונים Postgres ו-PGVector לאחסון זיכרון העוזר ה-AI וידע שלו, מאפשר שמירה והחזרה לטווח ארוך.
-
יכולות גלישה באינטרנט: העוזר ה-AI יכול לגלוש באינטרנט כדי לאסוף מידע נוסף, הרחבת מאגר הידע שלו.
-
הפניה לעוזרים מתמחים: LLM OS מאפשר לעוזר ה-AI להפנות משימות לעוזרים מתמחים אחרים, כמו עוזר Python או אנליסט נתונים, לקבלת יכולות ממוקדות יותר.
-
פריסה ב-AWS: הטיוטה מדגימה כיצד לפרוס את LLM OS ב-AWS, תוך ניצול תשתית כקוד כדי להקים את המשאבים הדרושים, כולל מסד הנתונים, מאזני העומס ומכלול ECS.
על ידי מעקב אחר ההוראות המסופקות בתיעוד של Fi-data, תוכל להקים ולהפעיל את LLM OS באופן מקומי או ב-AWS בקלות, מה שיאפשר לך לחקור את יכולות המסגרת העוצמתית הזו ולבנות את עוזרי ה-AI שלך.
שאלות נפוצות
שאלות נפוצות