تحرر من جودة GPT-4 بنسبة 90% بتكلفة أقل بنسبة 80% مع RouteLLM
قم بتحرير 90٪ من جودة GPT-4 بتكلفة أقل بنسبة 80٪ باستخدام RouteLLM ، إطار عمل مفتوح المصدر للتوجيه الفعال من حيث التكلفة للنماذج اللغوية الكبيرة. قم بتحسين الأداء والكفاءة باستخدام نهج جديد باستخدام بيانات التفضيل.
١٥ فبراير ٢٠٢٥

اكتشف كيف يمكن لإطار العمل المفتوح المصدر RouteLLM أن يقلل تكلفة تشغيل نماذج اللغة الكبيرة (LLMs) بنسبة تصل إلى 80% مع الحفاظ على 95% من أداء GPT-4. هذا النهج المبتكر يقدم حلاً لمعضلة التوازن بين التكلفة والجودة عند نشر نماذج اللغة الكبيرة، مما يجعل الذكاء الاصطناعي أكثر إمكانية الوصول وكفاءة.
الحل الفعال من حيث التكلفة والأداء العالي: RouteLLM
الاستفادة من بيانات التفضيل لتدريب الموجهات
تقييم RouteLLM: وفورات كبيرة في التكاليف دون المساومة على الجودة
إظهار القابلية للتعميم: RouteLLM عبر أزواج النماذج المختلفة
الصورة الأكبر: لماذا يثير RouteLLM إعجابي
الخاتمة
الحل الفعال من حيث التكلفة والأداء العالي: RouteLLM
الحل الفعال من حيث التكلفة والأداء العالي: RouteLLM
RouteLLM هو إطار عمل مفتوح المصدر طوّرته LM.org والذي يقدم حلاً فعال من حيث التكلفة لنشر نماذج اللغة الكبيرة (LLMs) دون المساس بالأداء. الابتكار الرئيسي لـ RouteLLM هو قدرته على توجيه الاستفسارات إلى أنسب LLM، مع الحفاظ على التوازن بين التكلفة والجودة.
يعالج هذا الإطار الحيرة التي تواجه عند نشر LLMs، حيث يؤدي استخدام النموذج الأكبر والأكثر قدرة إلى أعلى جودة للاستجابات ولكن قد يكون مكلفًا للغاية. يحل RouteLLM هذه المشكلة من خلال معالجة كل استفسار أولاً عبر نظام توجيه يقرر أي LLM سيتم استخدامه. يتم توجيه الاستفسارات التي يمكن معالجتها بواسطة نماذج أضعف وأرخص إلى هذه النماذج، بينما يتم توجيه الاستفسارات الأكثر تعقيدًا إلى نماذج أقوى، مما يقلل من التكاليف الإجمالية مع الحفاظ على جودة الاستجابة.
أظهر الباحثون الذين يقفون وراء RouteLLM تخفيضات كبيرة في التكاليف دون المساس بالأداء. تُظهر تجاربهم توفيرًا في التكاليف بنسبة تزيد عن 85% على مقياس MT، و45% على MLU، و35% على GSMA-K، مقارنة باستخدام النموذج الأكثر قدرة (GPT-4) فقط، مع تحقيق 95% من أدائه.
يحقق RouteLLM هذه النتائج المвпечатляющة من خلال الاستفادة من بيانات التفضيل، والتي تسمح لنظام التوجيه بالتعلم عن نقاط القوة والضعف في النماذج المختلفة وكيفية ارتباطها بالاستفسارات المحددة. استكشف الباحثون تقنيات توجيه مختلفة، بما في ذلك الترتيب المرجح بالتشابه، والتحليل العاملي، ومصنفات مستندة إلى نماذج اللغة، والتي أظهرت جميعها تحسينات كبيرة على خط الأساس للتوجيه العشوائي عند تعزيزها بقاض مستند إلى LLM.
علاوة على ذلك، أظهر إطار عمل RouteLLM قابلية للتعميم، حيث تمكن الباحثون من استخدام نفس الموجهات دون إعادة التدريب لتوجيه بين أزواج نماذج مختلفة، مثل CLA-3 Opus و Llama 38B، مع توفير في التكاليف وفوائد الأداء المماثلة.
بشكل عام، يمثل RouteLLM تطورًا مثيرًا في مجال نشر نماذج اللغة الكبيرة، مقدمًا حلاً فعالًا من حيث التكلفة وعالي الأداء يمكن أن يفتح آفاقًا جديدة للتطبيقات الذكية ويدفع حدود ما يمكن تحقيقه باستخدام LLMs.
الاستفادة من بيانات التفضيل لتدريب الموجهات
الاستفادة من بيانات التفضيل لتدريب الموجهات
يقدم البحث نهجًا جديدًا لتدريب الموجهات لتوجيه نماذج اللغة الكبيرة (LLM)، والذي يستفيد من بيانات التفضيل. يتكون كل نقطة بيانات في بيانات التفضيل من مطالبة ومقارنة بين جودة استجابة نموذجين على تلك المطالبة. قد يكون هذا فوزًا للنموذج الأول أو فوزًا للنموذج الثاني أو تعادلاً.
يسمح استخدام بيانات التفضيل للباحثين بالتعلم عن نقاط القوة والضعف في النماذج المختلفة وكيفية ارتباطها بالاستفسارات، وهو أمر فعال لتدريب الموجهات. قاموا بتدريب أربعة موجهات مختلفة باستخدام مزيج من بيانات ChatGPT Arena وتوليد البيانات:
- موجه الترتيب المرجح بالتشابه: يستخدم هذا الموجه نهج الترتيب المرجح بالتشابه لتحديد أي نموذج سيتم توجيه الاستفسار إليه.
- نموذج التحليل العاملي: يستخدم هذا الموجه نموذج التحليل العاملي لتعلم التفضيلات بين النماذج والاستفسارات.
- مصنف BERT: يستخدم هذا الموجه مصنف مستند إلى BERT لتوقع أي نموذج سيؤدي بشكل أفضل على استفسار معين.
- مصنف LLM السببي: يستخدم هذا الموجه مصنف مستند إلى نموذج اللغة السببي لتوقع أي نموذج سيؤدي بشكل أفضل على استفسار معين.
قيّم الباحثون أداء هذه الموجهات على مقاييس MT bench و MLU و GSM8K، ووجدوا أنهم يمكنهم تقليل التكاليف بشكل كبير (أكثر من 85% على MT bench، و45% على MLU، و35% على GSM8K) دون المساس بالجودة، مع تحقيق 95% من أداء النموذج الأقوى (GPT-4).
وبالأهمية، أظهر الباحثون أيضًا قابلية إطارهم للتعميم من خلال استخدام نفس الموجهات (دون إعادة التدريب) لتوجيه بين زوج نموذج مختلف (CLA 3 Opus و Llama 38B) وتحقيق تحسينات مماثلة في الفعالية من حيث التكلفة.
تقييم RouteLLM: وفورات كبيرة في التكاليف دون المساومة على الجودة
تقييم RouteLLM: وفورات كبيرة في التكاليف دون المساومة على الجودة
قيّم الباحثون RouteLLM باستخدام بيانات عامة من ChatAO وأظهروا تخفيضات كبيرة في التكاليف دون المساس بالجودة:
- على مقياس MT، حققوا تخفيضًا في التكلفة بنسبة تزيد عن 85% مقارنة باستخدام GPT-4 فقط، مع تحقيق 95% من أدائه.
- على مقياس MLU، حققوا تخفيضًا في التكلفة بنسبة 45%.
- على مقياس GSM8K، حققوا تخفيضًا في التكلفة بنسبة 35%.
ركز التقييم على الحالة التي يوجد فيها نموذجان - نموذج أقوى وأكثر تكلفة (GPT-4) ونموذج أضعف وأرخص (Megatron-LM 8x7B). استخدم الباحثون موجهًا عشوائيًا كخط أساس واستكشفوا تقنيات توجيه مختلفة، بما في ذلك تعزيز بيانات التدريب بقاض مستند إلى LLM.
تُظهر النتائج أن تقنيات التوجيه المعززة تفوقت بشكل كبير على الموجه العشوائي. كما أظهر الباحثون قابلية إطارهم للتعميم من خلال استخدام نفس الموجهات لتوجيه بين زوج نموذج مختلف (CLA-3 Opus و LLaMA 38B) دون أي إعادة تدريب، وحققوا تحسينات مماثلة في توفير التكاليف.
المفتاح لنجاح RouteLLM هو قدرته على تعلم نقاط القوة والضعف في النماذج المختلفة وتوجيه الاستفسارات وفقًا لذلك، مما يقلل من استخدام النموذج الأكثر تكلفة مع الحفاظ على استجابات عالية الجودة. ينسجم هذا النهج مع رؤية الباحثين لمكدس LLM هجين يجمع بين النماذج المحلية والمفتوحة المصدر والنماذج الرائدة مثل GPT-4، مع التحسين من حيث التكلفة والكفاءة والخصوصية والأمن.
إظهار القابلية للتعميم: RouteLLM عبر أزواج النماذج المختلفة
إظهار القابلية للتعميم: RouteLLM عبر أزواج النماذج المختلفة
بينما أجريت التقييمات الأولية لـ RouteLLM باستخدام زوج النموذج GPT-4 و Megatron-LM 8x7B، أراد الباحثون أيضًا إثبات قابلية إطارهم للتعميم. لفعل ذلك، قدموا نتائج لمقياس MT-Bench عند التوجيه بين زوج نموذج مختلف: النموذج الأكثر تكلفة والقدرة Chinchilla 3 Opus والنموذج الأقل تكلفة Llama 38B.
وبالأهمية، استخدم الباحثون نفس الموجهات دون أي إعادة تدريب، مما يبرز قدرة RouteLLM على التعميم إلى تركيبات نماذج اللغة الكبيرة الجديدة.
تُعد هذه القدرة على التعميم نقطة قوة رئيسية لإطار عمل RouteLLM، حيث تسمح للنظام بالنشر عبر مجموعة متنوعة من تكوينات نماذج اللغة الكبيرة دون الحاجة إلى إعادة تدريب أو ضبط نموذج محدد. من خلال إظهار فعالية RouteLLM عبر أزواج النماذج المختلفة، سلط الباحثون الضوء على القابلية للتطبيق الواسع والمتانة لنهجهم لنشر LLM بتكلفة فعالة.
الصورة الأكبر: لماذا يثير RouteLLM إعجابي
الصورة الأكبر: لماذا يثير RouteLLM إعجابي
أنا متحمس لـ RouteLLM لعدة أسباب رئيسية:
-
تخفيض التكلفة: إذا تمكنا من تقليل تكلفة استخدام نماذج اللغة الكبيرة (LLMs)، فسيكون له فوائد واسعة النطاق. سيسمح ذلك لمزيد من الناس والتطبيقات باستخدام الذكاء الاصطناعي، مع استخدام طاقة أقل في العملية.
-
إلغاءات خوارزمية: تستخدم تقنيات مثل مزيج الخبراء وسلسلة الفكر المزيد من الرموز، لذا فإن وجود رموز أرخص يمكننا من استخدام هذه الإلغاءات الخوارزمية القوية بشكل أكثر تكرارًا، مما يؤدي إلى نتائج أعلى جودة.
-
استخدام الذكاء الاصطناعي بكفاءة: يُعد نهج RouteLLM لتوجيه الاستفسارات إلى النموذج الأنسب، سواء كان محليًا أو قائمًا على السحابة، تحسينًا للتكلفة والكفاءة والجودة. يدفع هذا المزيد من الحوسبة إلى الأجهزة المحلية/الطرفية، مما يقلل من الاعتماد على النماذج السحابية المكلفة.
-
التوفر مفتوح المصدر: قام المؤلفون بإصدار قاعدة الرمز المفتوحة بالكامل، وهو دائمًا ما يكون مثيرًا للاهتمام. يسمح هذا للمجتمع ببناء وتحسين الإطار.
بشكل عام، يمثل RouteLLM خطوة كبيرة نحو جعل نماذج اللغة الكبيرة أكثر إمكانية الوصول وكفاءة وفعالية من حيث التكلفة. ينسجم هذا مع الرؤية الأوسع لنظام بيئي للذكاء الاصطناعي يستفيد من مزيج من النماذج الم
التعليمات
التعليمات