اكتشف قوة لاما 3.1: طرازات 405B، 70B و 8B
اكتشف قوة Llama 3.1: Meta تكشف عن طرازاتها البالغة 405 مليار، 70 مليار، و8 مليار، مما يوفر أداءً وقدرات استدلالية ومتعددة اللغات لا مثيل لها للمطورين والشركات والأبحاث في مجال الذكاء الاصطناعي.
١٤ فبراير ٢٠٢٥

افتح قوة طرازات Llama 3.1 الأحدث، بما في ذلك طراز المعلمات البالغ 405 مليار، وكذلك طرازات 8 و70 مليار المحدثة. اكتشف التفكير المعزز واستخدام الأدوات والقدرات متعددة اللغات التي يمكن أن ترفع مشاريعك وتدفع الابتكار.
اختراق في الذكاء الاصطناعي المفتوح المصدر: الكشف عن نماذج Llama 3.1 405b و 70B و 8B
قدرات لا مثيل لها: أكبر نموذج مفتوح المصدر تم إطلاقه على الإطلاق
نافذة سياق موسعة وأداء محسّن لنماذج 8B و 70B
تمكين استخدام الأدوات والاستدلال والتحسينات الأمنية
نشر تعاوني: Llama 3.1 متاح الآن على AWS و Databricks و NVIDIA وغيرها
الالتزام بالمصدر المفتوح والابتكار المدفوع بالمجتمع
الخاتمة
اختراق في الذكاء الاصطناعي المفتوح المصدر: الكشف عن نماذج Llama 3.1 405b و 70B و 8B
اختراق في الذكاء الاصطناعي المفتوح المصدر: الكشف عن نماذج Llama 3.1 405b و 70B و 8B
تفخر Meta بالإعلان عن إطلاق عائلة طراز Llama 3.1، بما في ذلك طراز 405 مليار معلمة الرائد، وكذلك طرازات محدثة بسعة 8 مليار و70 مليار معلمة. هذا يمثل أكبر وأكثر قدرة على اللغة المفتوحة المصدر التي تم إطلاقها على الإطلاق.
يوفر طراز 405 مليار معلمة تحسينات كبيرة في الاستدلال والاستخدام الأداتي والتعددية اللغوية وحجم النافذة السياقية. تتجاوز أحدث نتائج المعايير الأداء المعروض في وقت سابق من هذا العام. تشجع Meta المستخدمين على مراجعة التفاصيل في ورقة البحث المنشورة حديثًا.
جنبًا إلى جنب مع طراز 405 مليار، تطلق Meta أيضًا طرازات محدثة بسعة 8 مليار و70 مليار، مصممة لدعم مجموعة واسعة من حالات الاستخدام، من الهواة والشركات الناشئة إلى المؤسسات ومختبرات البحث. تتمتع هذه النماذج بأداء مвпечатляющ وقدرات جديدة ملحوظة، بما في ذلك نافذة سياقية موسعة تصل إلى 128 ألف رمز، وتوليد مكالمات الأدوات، وتحسين قدرات الاستدلال.
قدرات لا مثيل لها: أكبر نموذج مفتوح المصدر تم إطلاقه على الإطلاق
قدرات لا مثيل لها: أكبر نموذج مفتوح المصدر تم إطلاقه على الإطلاق
يعد طراز Llama 3.1 البالغ 405 مليار معلمة الذي تم إطلاقه حديثًا إنجازًا رائدًا، مما يضع معيارًا جديدًا لنماذج الذكاء الاصطناعي المفتوحة المصدر. يتمتع هذا النموذج الضخم بقدرات لا مثيل لها، متجاوزًا المعايير السابقة وعرض تحسينات كبيرة في الاستدلال والاستخدام الأداتي والأداء متعدد اللغات.
يعد طراز 405 مليار معلمة أكبر نموذج مفتوح المصدر تم إطلاقه على الإطلاق، متفوقًا على العروض السابقة. يقدم هذا النموذج تقدمًا ملحوظًا، بما في ذلك نافذة سياقية أكبر تصل إلى 128 ألف رمز، مما يمكنه من العمل بسلاسة مع قواعد البيانات الكبيرة والمواد المرجعية المفصلة.
تم تدريب Llama 3.1 على توليد مكالمات الأدوات لوظائف محددة، مثل البحث وتنفيذ الرمز والاستدلال الرياضي، مما يعزز قدراته على حل المشكلات واتخاذ القرارات. تجعل قدرات استخدام الأدوات بدون تدريب مسبق والاستدلال المحسن هذا النموذج أداة قوية لمجموعة واسعة من التطبيقات.
نافذة سياق موسعة وأداء محسّن لنماذج 8B و 70B
نافذة سياق موسعة وأداء محسّن لنماذج 8B و 70B
تتضمن إصدارة Llama 3.1 الأحدث طرازات محدثة بسعة 8 مليار و70 مليار تقدم أداءً مذهلاً وقدرات جديدة ملحوظة. بناءً على ملاحظات المجتمع، تم توسيع نافذة السياق لهذه النماذج لتصل إلى 128 ألف رمز، مما يمكنها من العمل مع قواعد البيانات الأكبر أو المواد المرجعية الأكثر تفصيلاً.
تم تدريب هذه النماذج المحدثة بسعة 8 مليار و70 مليار على توليد مكالمات الأدوات لوظائف محددة، مثل البحث وتنفيذ الرمز والاستدلال الرياضي. كما أنها تدعم استخدام الأدوات بدون تدريب مسبق والاستدلال المحسن، مما يعزز قدراتها على اتخاذ القرارات وحل المشكلات.
علاوة على ذلك، تم تحديث النهج على مستوى النظام لجعله أسهل للمطورين في الموازنة بين الفائدة والحاجة إلى السلامة. هذه النماذج متاحة الآن للنشر عبر شركاء متعددين، بما في ذلك AWS و Databricks و NVIDIA و Gro، بالإضافة إلى التشغيل المحلي.
تمكين استخدام الأدوات والاستدلال والتحسينات الأمنية
تمكين استخدام الأدوات والاستدلال والتحسينات الأمنية
تقدم نماذج Llama 3.1 الأحدث، بما في ذلك طراز 405 مليار معلمة، تحسينات كبيرة في استخدام الأدوات والاستدلال والسلامة. تم تدريب النماذج على توليد مكالمات الأدوات لوظائف محددة مثل البحث وتنفيذ الرمز والاستدلال الرياضي، مما يمكن المستخدمين من الاستفادة من هذه القدرات بسلاسة. بالإضافة إلى ذلك، تدعم النماذج استخدام الأدوات بدون تدريب مسبق، مما يسمح لها بتطبيق قدراتها الاستدلالية على مجموعة واسعة من المهام دون الحاجة إلى تدريب صريح.
تمكن النافذة السياقية الموسعة البالغة 128 ألف رمز النماذج من العمل مع قواعد البيانات الأكبر أو المواد المرجعية الأكثر تفصيلاً، مما يعزز قدرتها على الاستدلال وحل المشكلات. تترجم هذه التحسينات في القدرات الاستدلالية إلى مهارات أفضل في اتخاذ القرارات وحل المشكلات، مما يجعل نماذج Llama 3.1 أكثر تنوعًا وفعالية في مجموعة متنوعة من التطبيقات.
علاوة على ذلك، عمل الفريق بشكل وثيق مع الشركاء لضمان أن نشر Llama 3.1 عبر منصات مثل AWS و Databricks و NVIDIA و Gro يتم بسلاسة. سيسهل هذا التكامل مع منصات السحابة والذكاء الاصطناعي الرائدة على المطورين الوصول إلى القدرات المعززة لنماذج Llama 3.1 واستخدامها.
نشر تعاوني: Llama 3.1 متاح الآن على AWS و Databricks و NVIDIA وغيرها
نشر تعاوني: Llama 3.1 متاح الآن على AWS و Databricks و NVIDIA وغيرها
نحن متحمسون لإعلان أن نماذج Llama 3.1 الجديدة، بما في ذلك طراز 405 مليار معلمة، متاحة الآن للنشر عبر مجموعة من منصات الشركاء. بالإضافة إلى تشغيل النماذج محليًا، سيتمكن المطورون الآن من الوصول إلى Llama 3.1 من خلال AWS و Databricks و NVIDIA وغيرها من مزودي البنية التحتية السحابية والذكاء الاصطناعي الرائدين.
يتماشى هذا النهج التعاوني للنشر مع التزامنا بجعل Llama في متناول مجموعة واسعة من المستخدمين، من الهواة والشركات الناشئة إلى المؤسسات ومختبرات البحث. من خلال الشراكة مع هؤلاء القادة في الصناعة، نمكن التكامل السلس لـ Llama 3.1 في مجموعة متنوعة من سيناريوهات العمل والحالات الاستخدامية، مما يمكن مجتمع المطورين من بناء تطبيقات وحلول مبتكرة.
ستمكن النافذة السياقية الموسعة البالغة 128 ألف رمز في هذه النماذج Llama 3.1 الجديدة المستخدمين من العمل مع قواعد البيانات الأكبر والمواد المرجعية الأكثر تفصيلاً والمهام الأكثر تعقيدًا. علاوة على ذلك، ستعزز قدرات الاستدلال المحسنة في هذه النماذج والدعم لاستخدام الأدوات بدون تدريب مسبق من قدرات اتخاذ القرارات وحل المشكلات عبر مجموعة متنوعة من التطبيقات.
الالتزام بالمصدر المفتوح والابتكار المدفوع بالمجتمع
الالتزام بالمصدر المفتوح والابتكار المدفوع بالمجتمع
في Meta، نؤمن بقوة المصدر المفتوح ونلتزم بمواصلة مساهمتنا في المجتمع من خلال إطلاق Llama 3.1. مع الترخيص المحدث، يمكن للمطورين الآن استخدام مخرجات طراز 405 مليار معلمة لتحسين نماذج أخرى، مما يتيح إمكانات جديدة لإنشاء نماذج صغيرة عالية القدرة وتعزيز بحوث الذكاء الاصطناعي.
نتوقع أن تكون توليد البيانات التخليقية والتقطير من الاستخدامات الشائعة، مما يسمح للمجتمع ببناء على عملنا ودفع حدود ما هو ممكن مع الذكاء الاصطناعي المفتوح المصدر. من خلال جعل Llama 3.1 متاحًا عبر شركاء مثل AWS و Databricks و NVIDIA و Gro، نضمن أن يكون للمطورين والباحثين سهولة الوصول إلى هذا النموذج القوي، مما يدفع المزيد من الابتكار والتعاون.
هدفنا هو جعل الذكاء الاصطناعي المفتوح المصدر المعيار الصناعي، مواصلة التزامنا بمستقبل يمكن فيه للوصول الأكبر إلى نماذج الذكاء الاصطناعي المساعدة في ازدهار النظم البيئية وحل أكبر التحديات العالمية. نتطلع إلى ملاحظات ومساهمات مجتمع المطورين أثناء بنائهم على قدرات Llama.
الخاتمة
الخاتمة
يمثل إطلاق Llama 3.1 مع طراز 405 مليار معلمة، جنبًا إلى جنب مع النماذج المحدثة بسعة 8 مليار و70 مليار، إنجازًا كبيرًا في تقدم الذكاء الاصطناعي المفتوح المصدر. يتجاوز هذا النموذج الأداء المعروض في وقت سابق من هذا العام ويقدم قدرات مвпечатляющ، بما في ذلك تحسين الاستدلال والاستخدام الأداتي والتعددية اللغوية.
تمكن النافذة السياقية الموسعة البالغة 128 ألف رمز النماذج من العمل مع قواعد البيانات الأكبر والمواد المرجعية، مما يعزز مزيدًا من فائدتها. سيؤدي إضافة استخدام الأدوات بدون تدريب مسبق والقدرات الاستدلالية المحسنة إلى تمكين اتخاذ القرارات وحل المشكلات بشكل أفضل.
يتجلى التزام Meta بالذكاء الاصطناعي المفتوح المصدر في الترخيص المحدث، والذي يسمح للمطورين باستخدام مخرجات النموذج لتحسين نماذج أخرى، بما في ذلك من خلال توليد البيانات التخليقية والتقطير. سيمكن هذا إنشاء نماذج صغيرة عالية القدرة وتعزيز تقدم بحوث الذكاء الاصطناعي.
سيؤدي نشر Llama 3.1 على مستخدمي Meta AI، وتكاملها في Facebook Messenger و WhatsApp و Instagram، إلى إحضار هذه التطورات إلى جمهور أوسع. إن رؤية Meta لجعل الذكاء الاصطناعي المفتوح المصدر المعيار الصناعي هي خطوة أقرب مع هذا
التعليمات
التعليمات