بناء نظام تشغيل LLM: افتح مساعدي الذكاء الاصطناعي مع الذاكرة والمعرفة والأدوات
اكتشف كيفية بناء نظام تشغيل LLM: إطار تفاعلي لإنشاء مساعدين ذكاء اصطناعي مع الذاكرة والمعرفة والأدوات. افتح قوة النماذج اللغوية الكبيرة على AWS. قم بتحسين تطبيقات الذكاء الاصطناعي الخاصة بك باستخدام هذا الدليل الشامل.
١٤ فبراير ٢٠٢٥

افتح قوة المساعدين الذكيين بالذاكرة والمعرفة والأدوات! اكتشف كيفية بناء وكيلك الذكي الخاص باستخدام إطار عمل Phidata ، والذي يندمج الآن مع LLM-OS لحلول الذكاء الاصطناعي قابلة للتطوير والعملية. استكشف فوائد هذه التقنية المتطورة وتعلم كيفية نشر مساعدك الذكي على AWS ، كل ذلك دون الحاجة إلى ذكر أن المحتوى مُعاد استخدامه من فيديو.
تشغيل LLM-OS محليًا
تشغيل LLM-OS محليًا
لتشغيل LLM-OS محليًا، اتبع هذه الخطوات:
- إنشاء بيئة افتراضية Python لإبقاء تبعياتك معزولة.
- تثبيت الحزم الضرورية، بما في ذلك مكتبات AWS الاختيارية لإطار عمل FI-Data.
- قم بتثبيت Docker Desktop إذا لم تكن قد فعلت ذلك بالفعل.
- إنشاء قاعدة الرمز LLM-OS باستخدام الأمر
fi workspace create
، وحدد قالب "LLM-OS" للنسخ. - قم بتصدير مفتاح API OpenAI الخاص بك، حيث ستستخدم GPT-4 كنموذج للغة.
- قم بتصدير مفتاح API Anthropic الخاص بك للمساعد البحثي (Exa).
- قم بتشغيل
fi workspace up
لبدء تطبيق LLM-OS، والذي سيقوم بإنشاء حاويات Docker الضرورية للقاعدة البيانات وتطبيق LLM-OS. - افتح متصفح الويب الخاص بك وانتقل إلى
http://localhost:8501
للوصول إلى واجهة LLM-OS. - أدخل اسم مستخدم وابدأ التفاعل مع LLM-OS، والذي لديه إمكانية الوصول إلى آلة حاسبة ونظام ملفات وبحث على الويب وYahoo Finance.
- يمكنك أيضًا إضافة أعضاء آخرين في فريق المساعد، مثل مساعد Python أو محلل بيانات أو مساعد استثماري، كما هو موضح في أمثلة أخرى.
لاختبار LLM-OS، حاول إضافة مدونة إلى قاعدة المعرفة وسؤاله سؤالاً مثل "ماذا تمنى سام ألتمان لو كان يعرف؟". سيقوم LLM-OS بالبحث في قاعدة المعرفة الخاصة به واستخدام توليد مدعوم بالاسترجاع لتقديم الإجابة.
يمكنك أيضًا اختبار الآلة الحاسبة عن طريق السؤال "ما هو 10 فاكتوريال؟"، وسيستخدم LLM-OS الآلة الحاسبة لتقديم النتيجة.
يحتوي الإعداد المحلي على كل شيء داخل Docker، مما يجعل إدارته وتنفيذه أمرًا سهلاً.
تشغيل LLM-OS على AWS
تشغيل LLM-OS على AWS
لتشغيل LLM-OS على AWS، اتبع هذه الخطوات:
- قم بتصدير بيانات اعتماد AWS الخاصة بك من خلال تثبيت AWS CLI وتشغيل
aws configure
. - أضف معرفات شبكتك الفرعية إلى ملف
workspace_settings.py
. - أضف كلمة مرور لتطبيقك وقاعدة البيانات في ملف
workspace_settings.py
. - قم بإنشاء موارد AWS الخاصة بك عن طريق تشغيل
fir workspace up --prod-infra-aws
. سيقوم هذا بإعداد البنية التحتية الضرورية، بما في ذلك مجموعات الأمان والأسرار وحالة قاعدة البيانات وأجهزة التحميل والكتلة ECS. - بمجرد إنشاء الموارد، ستحصل على اسم نظام التحميل DNS الذي يمكنك استخدامه للوصول إلى LLM-OS الخاص بك المُشغّل على AWS.
- يمكنك أيضًا الوصول إلى واجهة برمجة التطبيقات LLM-OS عن طريق إضافة
/api
إلى اسم نظام التحميل DNS. - اختبر LLM-OS عن طريق إضافة مدونة وطرح أسئلة عليه. يمكنك أيضًا محاولة مهام أكثر تعقيدًا، مثل مقارنة الأسهم باستخدام أدوات Yahoo Finance.
تذكر التحقق من توثيق Fi Data للحصول على تعليمات مفصلة ومعلومات حول كيفية تخصيص وتوسيع LLM-OS.
اختبار وظائف LLM-OS
اختبار وظائف LLM-OS
الآن وقد قمنا بتشغيل LLM-OS على AWS، دعنا نختبر وظائفه. سنقوم بتنفيذ بعض المهام لرؤية كيفية عمل النظام.
أولاً، دعنا نضيف مدونة إلى قاعدة المعرفة ثم نسأل LLM-OS سؤالاً عن المحتوى:
-
أضف مدونة جديدة إلى قاعدة المعرفة:
- سيقوم LLM-OS بمعالجة المدونة وتخزين المعلومات في قاعدة البيانات المتجهة.
-
اسأل السؤال: "ماذا تمنى سام ألتمان لو كان يعرف؟"
- سيقوم LLM-OS بالبحث في قاعدة المعرفة الخاصة به، واسترجاع المعلومات ذات الصلة، واستخدام توليد مدعوم بالاسترجاع لتقديم الإجابة.
بعد ذلك، دعنا نختبر وظيفة الآلة الحاسبة:
- اسأل LLM-OS: "ما هو 10 فاكتوريال؟"
- سيستخدم LLM-OS قدراته الحاسبية لحساب الفاكتوريال وإرجاع النتيجة.
أخيرًا، دعنا نستكشف قدرة LLM-OS على تنفيذ مهام أكثر تعقيدًا:
- اطلب من LLM-OS "إعداد مقارنة بين NVIDIA و AMD باستخدام بيانات Yahoo Finance".
- سيستفيد LLM-OS من إمكانية الوصول إلى بيانات Yahoo Finance، وكذلك قدراته على التوليد اللغوي الطبيعي، لتقديم تحليل مقارن للشركتين.
من خلال اختبار هذه الوظائف المختلفة، يمكنك رؤية كيف يمكن أن يكون LLM-OS مساعدًا ذكيًا قويًا، قادرًا على الوصول إلى مصادر متعددة والتكامل معها لحل المشكلات المعقدة. يُظهر التكامل السلس للنموذج اللغوي الكبير وقاعدة المعرفة والأدوات الخارجية إمكانات هذا الإطار لبناء تطبيقات الذكاء الاصطناعي المتقدمة.
الخاتمة
الخاتمة
نظام التشغيل LLM (Large Language Model Operating System) هو إطار عمل قوي يسمح لك ببناء مساعدين ذكاء اصطناعي ذوي ذاكرة طويلة المدى ومعرفة سياقية والقدرة على اتخاذ إجراءات باستخدام استدعاء الوظائف. من خلال دمج إطار عمل Fi-data مع نظام التشغيل LLM، يمكنك إنشاء حل قابل للتطوير والتطبيق العملي لاحتياجات الذكاء الاصطناعي الخاصة بك.
أبرز النقاط الرئيسية لتنفيذ نظام التشغيل LLM الموضحة في هذا الدليل التعليمي هي:
-
الاستفادة من GPT-4 كنموذج لغة كبير: يستخدم نظام التشغيل LLM GPT-4 كنموذج اللغة الأساسي، مما يوفر قدرات معالجة اللغة الطبيعية المتقدمة.
-
الوصول إلى أدوات البرمجيات 1.0: يمنح نظام التشغيل LLM المساعد الذكي إمكانية الوصول إلى مجموعة متنوعة من أدوات البرمجيات، مثل الآلة الحاسبة ونظام الملفات والبحث على الويب، لتعزيز قدراته على حل المشكلات.
-
الذاكرة الدائمة وتخزين المعرفة: يستخدم نظام التشغيل LLM قاعدة بيانات Postgres و PGVector لتخزين ذاكرة المساعد الذكي ومعرفته، مما يمكّن من الاحتفاظ والاسترجاع طويل الأجل.
-
قدرات التصفح على الإنترنت: يمكن للمساعد الذكي تصفح الإنترنت لجمع معلومات إضافية، مما يوسع قاعدة معرفته.
-
التفويض إلى مساعدين متخصصين: يسمح نظام التشغيل LLM للمساعد الذكي بتفويض المهام إلى مساعدين متخصصين آخرين، مثل مساعد Python أو محلل بيانات، للحصول على قدرات أكثر استهدافًا.
-
النشر على AWS: يوضح الدليل التعليمي كيفية نشر نظام التشغيل LLM على AWS، باستخدام البنية التحتية كرمز لإعداد الموارد الضرورية، بما في ذلك قاعدة البيانات وأجهزة التحميل ومجموعة ECS.
باتباع التعليمات الواردة في توثيق Fi-data، يمكنك بسهولة إعداد وتشغيل نظام التشغيل LLM محليًا أو على AWS، مما يتيح لك استكشاف قدرات هذا الإطار القوي وبناء مساعديك الذكاء الاصطناعي الخاصين.
التعليمات
التعليمات