خذ برمجتك إلى المستوى التالي مع مساعد محلي

قم بتطوير مهاراتك البرمجية إلى المستوى التالي مع مساعد محلي. اكتشف كيفية استخدام LMStudio و Olama لتقديم نماذج Llama3 داخل امتداد Code GPT في VS Code لتعزيز قدراتك البرمجية.

١٦ فبراير ٢٠٢٥

party-gif

قم بإطلاق إمكانات برمجتك بواسطة مساعد محلي مجاني للذكاء الاصطناعي الذي يرفع إنتاجيتك إلى آفاق جديدة. اكتشف كيفية دمج نماذج اللغة القوية مثل Llama3 بسلاسة في سير عملك التطويري، مما يمكنك من كتابة شفرة أفضل، وإعادة هيكلة بكفاءة، وتعزيز تجربة البرمجة الشاملة لديك.

تعلم كيفية إعداد Co-Pilot محلي لاحتياجات البرمجة الخاصة بك

في هذا القسم، سنستكشف كيفية إعداد مساعد محلي لاحتياجات البرمجة الخاصة بك باستخدام LM Studio و Olama. سنغطي الخطوات اللازمة لتثبيت الامتدادات اللازمة، وتكوين الخوادم المحلية، والاستفادة من قوة نماذج Llama3 لتعزيز تجربة البرمجة الخاصة بك.

أولاً، سنركز على إعداد LM Studio كخادم API لتقديم نموذج Llama3 Instruct Gradient بإصدار 1 مليون رمز. سنوجهك خلال عملية تحميل النموذج، وإنشاء خادم محلي، وتكامله مع امتداد Code GPT في Visual Studio Code.

بعد ذلك، سنقدم Olama كبديل مفتوح المصدر لـ LM Studio. سنوضح كيفية تنزيل وتثبيت Olama، وبدء تشغيل الخادم، وربط نموذج Llama3 بسعة 70 مليار بامتداد Code GPT. سيوفر لك هذا حلاً مفتوح المصدر بالكامل لاحتياجات المساعد المحلي الخاص بك.

طوال القسم، سنختبر قدرات كل من LM Studio و Olama من خلال تقديم المطالبات ومراقبة استجابات نماذج Llama3. كما سنستكشف قدرات إعادة التنظيم للنموذج الأكبر بسعة 70 مليار وسنقارن الأداء بالنموذج الأصغر بسعة 8 مليار المستخدم سابقًا.

بحلول نهاية هذا القسم، ستكون لديك فهم راسخ لكيفية إعداد مساعد محلي باستخدام كل من LM Studio و Olama، مما يمكنك من الاستفادة من قوة نماذج Llama3 لمهامك ومشاريعك البرمجية.

استفد من LM Studio لتقديم نماذج Llama3 محليًا

لاستخدام Llama3 كمساعد لك في VS Code، يمكنك الاستفادة من LM Studio لتقديم نماذج Llama3 محليًا. هذا النهج يسمح لك بتشغيل النماذج على جهازك الخاص، دون الاعتماد على واجهة برمجة تطبيقات خارجية مثل Grok.

أولاً، قم بتثبيت امتداد Code GPT في VS Code. ثم اتبع هذه الخطوات:

  1. قم بتنزيل وتشغيل LM Studio على جهازك.
  2. ابحث عن نموذج Llama3 الذي تريد استخدامه، مثل نموذج Llama3 Instruct Gradient بإصدار 1 مليون رمز.
  3. قم بإنشاء خادم محلي في LM Studio لتقديم نموذج Llama3 المحدد.
  4. في VS Code، تأكد من تحديد LM Studio كمزود في إعدادات امتداد Code GPT.

الآن، يمكنك اختبار التكامل من خلال طلب من نموذج Llama3 كتابة برنامج Python يقوم بتنزيل ملف من S3 وتخزينه محليًا. سيتواصل النموذج مع خادم LM Studio لتوليد الاستجابة.

بينما قد لا يكون السرعة بنفس سرعة استخدام واجهة برمجة تطبيقات Grok، يسمح هذا النهج لك بتشغيل النماذج محليًا، دون الاعتماد على خدمة خارجية. بالإضافة إلى ذلك، يمكنك استكشاف النماذج الأخرى المتوفرة في LM Studio واستخدامها كمساعد برمجة لك داخل VS Code.

اكتشف قوة Olama كحل Co-Pilot محلي مفتوح المصدر

لاستخدام Olama كمساعد لك داخل امتداد Code GPT، اتبع هذه الخطوات:

  1. قم بتنزيل وتثبيت Olama من الموقع الرسمي، olama.com.
  2. ابدأ تشغيل خادم Olama من خلال النقر على تطبيق Olama.
  3. في امتداد Code GPT، حدد Olama كمزود.
  4. حدد النموذج الذي تريد استخدامه، مثل نموذج Llama3 بسعة 70 مليار.
  5. لبدء تشغيل خادم نموذج Llama3 بسعة 70 مليار، افتح طرفية وقم بتشغيل الأمر olama run llama3-70b.
  6. بمجرد تحميل النموذج، يمكنك البدء في استخدام Olama كمساعد لك داخل امتداد Code GPT.

Olama هو حل مفتوح المصدر بالكامل، على عكس LM Studio الذي له بعض المكونات المملوكة. بينما يوفر LM Studio مزيدًا من المرونة من حيث النماذج التي يمكنك استخدامها، يوفر Olama بديلاً مفتوح المصدر بالكامل.

عند استخدام Olama، ستحتاج إلى بدء تشغيل خادم النموذج يدويًا، وهذا قد يكون أكثر تعقيدًا من إعداد LM Studio. ومع ذلك، يسمح هذا النهج لك بالسيطرة الكاملة على النموذج الذي تستخدمه وضمان أن حل المساعد الخاص بك مفتوح المصدر بالكامل.

ستعتمد جودة الإخراج من Olama على النموذج الذي تستخدمه، ويجب أن يوفر نموذج Llama3 بسعة 70 مليار أداءً أفضل مقارنةً بالنموذج بسعة 8 مليار. تذكر أن تشغيل نموذج كبير محليًا قد يؤدي إلى سرعة استنتاج أبطأ مقارنةً باستخدام واجهة برمجة تطبيقات قائمة على السحابة مثل Grok.

بشكل عام، Olama هو خيار مفتوح المصدر رائع لتشغيل المساعد الخاص بك محليًا، ويمكن أن يكون أداة قيمة في سير عملك التطويري.

الخاتمة

في هذا الفيديو، استكشفنا بديلين محليين لواجهة برمجة تطبيقات Grok لاستخدام Llama3 كمساعد برمجة داخل VS Code. أولاً، قمنا بإعداد LM Studio كخادم API لتقديم نموذج Llama3 Instruct Gradient بإصدار 1 مليون رمز. ثم أظهرنا كيفية استخدام هذا النموذج داخل امتداد Code GPT في VS Code، مع عرض قدرته على توليد الرمز وتقديم اقتراحات إعادة التنظيم.

بعد ذلك، نظرنا إلى استخدام Olama كحل مفتوح المصدر لتشغيل النماذج اللغوية محليًا. قمنا بشرح عملية بدء تشغيل خادم Olama وربط امتداد Code GPT بنموذج Llama3 بسعة 70 مليار. على الرغم من أن الأداء كان أبطأ مقارنةً بواجهة برمجة تطبيقات Grok، فإن الإعداد المحلي وفر المزيد من التحكم والمرونة.

سلط الفيديو الضوء على التنازلات بين النهجين، حيث يوفر LM Studio مجموعة أوسع من خيارات النماذج ولكنه حل مغلق المصدر، بينما وفر Olama بديلاً مفتوح المصدر مع خيارات نماذج محدودة. في النهاية، أظهر كلا النهجين القدرة على الاستفادة من نماذج اللغة القوية لمساعدة البرمجة في بيئة محلية، مما قلل من الاعتماد على واجهات برمجة تطبيقات خارجية.

التعليمات