Libérez la puissance de Llama 3.1 : modèles 405B, 70B et 8B

Découvrez la puissance de Llama 3.1 : Meta dévoile leurs modèles 405B, 70B et 8B, offrant des performances, un raisonnement et des capacités multilingues inégalés pour les développeurs, les entreprises et la recherche en IA.

16 février 2025

party-gif

Déverrouillez la puissance des derniers modèles Llama 3.1, y compris le modèle révolutionnaire de 405 milliards de paramètres, ainsi que les modèles mis à jour de 8 et 70 milliards de paramètres. Découvrez des capacités de raisonnement améliorées, d'utilisation d'outils et multilingues qui peuvent faire progresser vos projets et stimuler l'innovation.

Percée dans l'IA open-source : les modèles Llama 3.1 405b, 70B et 8B dévoilés

Meta est ravi d'annoncer la sortie de la famille de modèles Llama 3.1, notamment le modèle révolutionnaire de 405 milliards de paramètres, ainsi que les modèles mis à jour de 8 milliards et 70 milliards de paramètres. Il s'agit du plus grand et du plus puissant modèle de langage open-source jamais publié.

Le modèle de 405 milliards de paramètres offre des améliorations significatives en matière de raisonnement, d'utilisation d'outils, de multilinguisme et de taille de la fenêtre de contexte. Les derniers résultats des tests dépassent les performances présentées plus tôt cette année. Meta encourage les utilisateurs à examiner les détails dans le document de recherche nouvellement publié.

Parallèlement au modèle de 405 milliards, Meta publie également des modèles mis à jour de 8 milliards et 70 milliards de paramètres, conçus pour prendre en charge une large gamme d'utilisations, des passionnés et des startups aux entreprises et aux laboratoires de recherche. Ces modèles affichent des performances impressionnantes et de nouvelles capacités notables, notamment une fenêtre de contexte élargie à 128 000 jetons, la génération d'appels d'outils et des capacités de raisonnement améliorées.

Pour approfondir son engagement envers l'IA open-source, Meta a mis à jour la licence de ces modèles, permettant aux développeurs d'utiliser les résultats pour améliorer d'autres modèles, notamment par la génération de données synthétiques et la distillation. Cela ouvre de nouvelles possibilités pour créer des modèles plus petits mais très performants et faire progresser la recherche en IA.

Capacités inégalées : le plus grand modèle open-source jamais publié

Le modèle de 405 milliards de paramètres de Llama 3.1 nouvellement publié est une réalisation révolutionnaire, établissant une nouvelle norme pour les modèles d'IA open-source. Ce modèle colossal se vante de capacités inégalées, dépassant les références précédentes et offrant des améliorations significatives en matière de raisonnement, d'utilisation d'outils et de performances multilingues.

Le modèle de 405 milliards de paramètres est le plus grand modèle open-source jamais publié, éclipsant les offres précédentes. Ce modèle apporte des progrès impressionnants, notamment une fenêtre de contexte plus large de 128 000 jetons, lui permettant de fonctionner de manière transparente avec des bases de code étendues et des documents de référence détaillés.

Llama 3.1 a été entraîné à générer des appels d'outils pour des fonctions spécifiques, telles que la recherche, l'exécution de code et le raisonnement mathématique, renforçant davantage ses capacités de résolution de problèmes et de prise de décision. Les capacités d'utilisation d'outils sans apprentissage préalable et le raisonnement amélioré en font un outil puissant pour une large gamme d'applications.

Fenêtre de contexte élargie et performances améliorées pour les modèles 8B et 70B

La dernière version de Llama 3.1 comprend des modèles mis à jour de 8 milliards et 70 milliards de paramètres offrant des performances impressionnantes et de nouvelles capacités notables. Sur la base des commentaires de la communauté, la fenêtre de contexte de ces modèles a été élargie à 128 000 jetons, leur permettant de travailler avec des bases de code plus importantes ou des documents de référence plus détaillés.

Ces modèles mis à jour de 8 milliards et 70 milliards de paramètres ont été entraînés à générer des appels d'outils pour des fonctions spécifiques, telles que la recherche, l'exécution de code et le raisonnement mathématique. Ils prennent également en charge l'utilisation d'outils sans apprentissage préalable et un raisonnement amélioré, ce qui améliore leurs capacités de prise de décision et de résolution de problèmes.

En outre, l'approche au niveau du système a été mise à jour pour faciliter l'équilibre entre l'utilité et la sécurité pour les développeurs. Ces modèles sont désormais disponibles pour le déploiement auprès de divers partenaires, notamment AWS, Databricks, NVIDIA et Gro, en plus de pouvoir être exécutés localement.

Permettre l'utilisation d'outils, le raisonnement et les améliorations de sécurité

Les derniers modèles Llama 3.1, y compris le modèle de 405 milliards de paramètres, offrent des améliorations significatives en matière d'utilisation d'outils, de raisonnement et de sécurité. Les modèles ont été entraînés à générer des appels d'outils pour des fonctions spécifiques comme la recherche, l'exécution de code et le raisonnement mathématique, permettant aux utilisateurs de tirer parti de ces capacités de manière transparente. De plus, les modèles prennent en charge l'utilisation d'outils sans apprentissage préalable, leur permettant d'appliquer leurs capacités de raisonnement à une large gamme de tâches sans nécessiter de formation explicite.

La fenêtre de contexte élargie de 128 000 jetons permet aux modèles de travailler avec des bases de code plus importantes ou des documents de référence plus détaillés, améliorant leur capacité à raisonner et à résoudre des problèmes. Ces améliorations des capacités de raisonnement se traduisent par de meilleures compétences en matière de prise de décision et de résolution de problèmes, rendant les modèles Llama 3.1 plus polyvalents et efficaces dans une variété d'applications.

En outre, l'équipe a travaillé en étroite collaboration avec des partenaires pour s'assurer que le déploiement de Llama 3.1 sur des plateformes comme AWS, Databricks, NVIDIA et Gro se déroule sans heurts. Cette intégration avec les principales plateformes cloud et d'IA facilitera l'accès et l'utilisation des capacités améliorées des modèles Llama 3.1 pour les développeurs.

Déploiement collaboratif : Llama 3.1 désormais disponible sur AWS, Databricks, NVIDIA et plus

Nous sommes ravis d'annoncer que les nouveaux modèles Llama 3.1, y compris le modèle de 405 milliards de paramètres, sont désormais disponibles pour le déploiement sur une gamme de plateformes partenaires. En plus de l'exécution locale des modèles, les développeurs pourront désormais accéder à Llama 3.1 via AWS, Databricks, NVIDIA et d'autres fournisseurs de cloud et d'infrastructure d'IA de premier plan.

Cette approche de déploiement collaborative s'aligne sur notre engagement à rendre Llama accessible à un large éventail d'utilisateurs, des passionnés et des startups aux entreprises et aux laboratoires de recherche. En nous associant à ces leaders de l'industrie, nous permettons une intégration transparente de Llama 3.1 dans une variété de flux de travail et de cas d'utilisation, donnant aux développeurs les moyens de construire des applications et des solutions innovantes.

La fenêtre de contexte élargie de 128 000 jetons dans ces nouveaux modèles Llama 3.1 permettra aux utilisateurs de travailler avec des bases de code plus importantes, des documents de référence plus détaillés et des tâches plus complexes. De plus, les capacités de raisonnement améliorées des modèles et la prise en charge de l'utilisation d'outils sans apprentissage préalable amélioreront les capacités de prise de décision et de résolution de problèmes dans une gamme diversifiée d'applications.

Engagement envers l'open-source et l'innovation pilotée par la communauté

Chez Meta, nous croyons au pouvoir de l'open-source et nous nous engageons à approfondir notre contribution à la communauté avec la sortie de Llama 3.1. Avec la licence mise à jour, les développeurs peuvent désormais utiliser les résultats du modèle de 405 milliards de paramètres pour améliorer d'autres modèles, ouvrant de nouvelles possibilités pour créer des modèles plus petits mais très performants et faire progresser la recherche en IA.

Nous nous attendons à ce que la génération de données synthétiques et la distillation soient des cas d'utilisation populaires, permettant à la communauté de s'appuyer sur notre travail et de repousser les limites de ce qui est possible avec l'IA open-source. En rendant Llama 3.1 disponible auprès de partenaires comme AWS, Databricks, NVIDIA et Gro, nous nous assurons que les développeurs et les chercheurs aient un accès facile à ce modèle puissant, stimulant davantage l'innovation et la collaboration.

Notre objectif est de faire de l'IA open-source la norme de l'industrie, poursuivant notre engagement envers un avenir où un meilleur accès aux modèles d'IA peut aider les écosystèmes à prospérer et à résoudre les défis les plus urgents du monde. Nous attendons avec impatience les commentaires et les contributions de la communauté des développeurs alors qu'ils s'appuient sur les capacités de Llama.

Conclusion

La sortie de Llama 3.1 avec le modèle de 405 milliards de paramètres, ainsi que les modèles mis à jour de 8 milliards et 70 milliards de paramètres, représente une étape importante dans l'avancement de l'IA open-source. Ce modèle dépasse les performances présentées plus tôt cette année et offre des capacités impressionnantes, notamment un raisonnement amélioré, une meilleure utilisation des outils et un multilinguisme accru.

La fenêtre de contexte élargie de 128 000 jetons permet aux modèles de travailler avec des bases de code et des documents de référence plus importants, renforçant davantage leur utilité. L'ajout de l'utilisation d'outils sans apprentissage préalable et de capacités de raisonnement améliorées permettra une meilleure prise de décision et une meilleure résolution de problèmes.

L'engagement de Meta envers l'IA open-source est évident dans la licence mise à jour, qui permet aux développeurs d'utiliser les résultats des modèles pour améliorer d'autres modèles, notamment par la génération de données synthétiques et la distillation. Cela permettra la création de modèles plus petits mais très performants et fera progresser la recherche en IA.

Le déploiement de Llama 3.1 auprès des utilisateurs d'IA de Meta, et son intégration dans Facebook Messenger, WhatsApp et Instagram, apportera ces avancées à un public plus large. La vision de Meta de faire de l'IA open-source la norme de l'industrie se rapproche avec cette sortie, car la communauté des développeurs est habilitée à construire des solutions innovantes qui peuvent contribuer à relever les défis les plus urgents du monde.

FAQ