Percées de l'IA, évolutions réglementaires et perturbation du jeu : explorer les dernières avancées

Explorez les dernières avancées de l'IA, les changements réglementaires et la perturbation du jeu dans cet article de blog complet. Découvrez les informations sur le départ de Microsoft et Apple d'OpenAI, les nouvelles fonctionnalités d'Anthropic, les plans de ferme de serveurs d'Elon Musk et la position de Nintendo sur l'IA dans le jeu. Restez informé sur l'évolution du paysage de l'IA.

21 février 2025

party-gif

Plongez dans les dernières nouvelles et les progrès de l'IA, des mouvements des géants de la technologie dans le paysage de l'IA aux développements de pointe en robotique et en technologie de conduite autonome. Explorez les implications d'un examen accru de l'IA, la course à la suprématie des GPU et la position de Nintendo sur l'IA générative dans le jeu. Cette mise à jour complète couvre les histoires les plus importantes de l'IA, fournissant des informations qui peuvent vous aider à rester à la pointe de la courbe.

Pourquoi Apple et Microsoft quittent le conseil d'administration d'OpenAI

Selon l'article de Bloomberg, Microsoft et Apple abandonnent leurs plans de rejoindre le conseil d'administration d'OpenAI en raison d'un examen plus approfondi par les organismes de surveillance mondiaux de l'influence des grandes entreprises technologiques dans l'IA.

Les régulateurs aux États-Unis et en Europe ont exprimé des préoccupations concernant l'influence de Microsoft sur OpenAI, Microsoft détenant déjà 49% de la société et ayant intégré les services d'OpenAI dans ses propres plateformes. L'article indique que la démission du conseil d'administration n'est pas susceptible de résoudre les préoccupations de la Federal Trade Commission américaine concernant le partenariat de Microsoft avec OpenAI.

Microsoft a récemment acquis Anthropic, une autre société d'IA de premier plan, dans un mouvement qui semblait passer inaperçu en n'acquérant pas officiellement l'entreprise mais en engageant plutôt son PDG Mustafa Suleyman. Cela suggère que Microsoft tente de naviguer dans le renforcement de la surveillance réglementaire concernant la consolidation des capacités d'IA par les grandes entreprises technologiques.

L'article note que le Royaume-Uni examine également la collaboration de 4 milliards de dollars d'Amazon avec Anthropic, la société derrière le modèle d'IA impressionnant Claude. Les régulateurs semblent préoccupés par la concentration du pouvoir entre les mains de quelques grandes entreprises technologiques en ce qui concerne le développement et le déploiement de l'IA.

Dans l'ensemble, le départ de Microsoft et d'Apple du conseil d'administration d'OpenAI semble être une décision stratégique pour se distancer de la perception d'une relation "incestueuse" entre les grandes entreprises technologiques dans le domaine de l'IA, dans un effort pour apaiser les régulateurs et promouvoir une plus grande concurrence dans ce domaine.

Les nouvelles fonctionnalités d'Anthropic pour l'IA Claude

Anthropic, la société derrière le modèle d'IA impressionnant Claude, a récemment publié plusieurs nouvelles fonctionnalités pour son produit phare. Plongeons dans les détails :

  1. Ajustement fin pour Haiku : Anthropic a maintenant activé l'ajustement fin pour son modèle Haiku, qui est son modèle le plus rapide et le plus rentable sur la plateforme Amazon Bedrock. Cela permet aux utilisateurs d'ajuster finement le modèle pour mieux répondre à leurs besoins spécifiques, comme agir en tant que modérateur sur un ensemble de données d'exemple. Lors des tests, l'ajustement fin a amélioré la précision de la classification de 81% à 99% et réduit les jetons d'invite par requête de 89%.

  2. Publication d'artefacts : Anthropic a élargi les capacités de la fonctionnalité "Artefact" de Claude. Les artefacts sont un élément d'interface unique qui permet à Claude de produire des réponses longues, comme des extraits de code ou des visualisations, dans une fenêtre séparée tout en gardant la conversation principale propre. Les utilisateurs peuvent maintenant publier et partager ces artefacts en ligne, facilitant ainsi la collaboration et la présentation de leur travail.

  3. Concurrence activée par défaut : Anthropic a publié la version 0.2 de sa bibliothèque open source, Llama, qui inclut désormais la concurrence activée par défaut. Cela permet à Llama de servir plusieurs requêtes simultanément, en n'utilisant qu'une petite quantité de mémoire supplémentaire par requête. Cela permet des cas d'utilisation tels que la gestion de plusieurs sessions de chat, l'hébergement de modèles de complétion de code LLM, le traitement de différentes parties d'un document en parallèle et l'exécution de plusieurs agents avec des modèles différents en même temps.

Ces nouvelles fonctionnalités d'Anthropic démontrent leur engagement à améliorer et à développer en permanence les capacités du modèle d'IA Claude. L'ajustement fin pour Haiku, la publication d'artefacts et les améliorations de la concurrence contribuent à faire de Claude un outil plus polyvalent et plus puissant pour les utilisateurs dans diverses applications.

La ferme de GPU d'Elon Musk et la compétition pour la domination de l'IA

La société d'IA d'Elon Musk, xAI, a pris des mesures importantes pour construire ses propres fermes de serveurs et sécuriser la puissance de calcul nécessaire pour concurrencer les leaders du secteur. Selon le rapport, xAI a mis fin aux discussions avec Oracle sur l'expansion de leur accord de location de serveurs en raison de désaccords sur les délais et les préoccupations concernant l'alimentation électrique. À la place, xAI construit maintenant son propre centre de données IA à Memphis, dans le Tennessee.

L'entreprise achète des puces Nvidia auprès de Dell et Supermicro pour ce projet. xAI loue déjà environ 16 000 puces Nvidia à Oracle et prévoit de construire un supercalculateur avec 100 000 GPU Nvidia pour former son modèle Grok 3.0. Elon Musk a commenté cela, en déclarant que la raison de la construction de ce système massif en interne est de s'assurer que la compétitivité fondamentale de xAI dépende du fait d'être plus rapide que toute autre entreprise d'IA.

Cette stratégie d'intégration verticale et de construction de sa propre infrastructure informatique est cohérente avec l'approche de Musk chez Tesla et SpaceX, où les entreprises sont devenues largement autosuffisantes. L'objectif est d'avoir un contrôle total sur le "volant" plutôt que d'être un "passager arrière" en ce qui concerne le développement de leurs modèles d'IA.

La compétition pour la domination de l'IA s'intensifie, et le mouvement d'Elon Musk pour construire ce puissant cluster GPU est un signe clair que xAI est déterminé à rattraper et à potentiellement dépasser les leaders du secteur comme OpenAI. Cette course pour les modèles d'IA les plus rapides et les plus performants est susceptible de se poursuivre, les entreprises se disputant l'avantage en termes de puissance de calcul et de développement de modèles.

Les capitalistes-risqueurs stockent des GPU pour gagner un avantage dans les investissements en IA

La société de capital-risque a16z a activement acheté de grandes quantités des puissants GPU H100 de Nvidia, dans le but de fournir ces ressources à ses entreprises du portefeuille. Cette stratégie vise à donner à a16z un avantage dans les transactions d'investissement axées sur l'IA, car l'accès à du matériel de pointe peut être un avantage important dans le domaine en évolution rapide de l'intelligence artificielle.

La société, qui gère 42 milliards de dollars d'actifs, loue ces GPU à de nombreuses entreprises de son portefeuille, s'assurant que les startups dans lesquelles elle investit disposent de la puissance de calcul nécessaire pour développer et déployer des modèles d'IA avancés. De plus, a16z prévoit d'étendre ce programme "d'oxygène", comme ils le décrivent, à plus de 200 000 GPU à l'avenir.

Cette démarche de a16z souligne l'importance croissante des capacités d'IA dans l'écosystème des startups. En sécurisant l'accès à du matériel haute performance, la société de capital-risque peut offrir à ses entreprises du portefeuille une ressource précieuse qui peut être difficile à obtenir pour d'autres, leur donnant potentiellement un avantage concurrentiel dans la course au développement et au déploiement de solutions innovantes alimentées par l'IA.

La rareté de ces puissants GPU, combinée à la demande croissante des startups axées sur l'IA, a rendu difficile pour les entreprises d'acquérir les ressources de calcul nécessaires par elles-mêmes. En tirant parti de ses ressources, a16z vise à se positionner comme un partenaire privilégié pour les startups axées sur l'IA, renforçant davantage sa position dans le paysage technologique en évolution rapide.

OpenAI s'associe au laboratoire national de Los Alamos pour la recherche en biosciences

OpenAI et le Laboratoire national de Los Alamos, l'un des principaux laboratoires nationaux américains, collaborent pour étudier comment l'intelligence artificielle peut être utilisée en toute sécurité par les scientifiques dans les environnements de laboratoire afin de faire progresser la recherche en biosciences.

Le partenariat implique le développement d'évaluations pour comprendre les capacités et les limites des modèles d'IA multimodaux, comme GPT-4, dans l'assistance aux humains pour des tâches dans un environnement de laboratoire physique. Cela comprend la réalisation d'évaluations de sécurité biologique pour GPT-4 et ses systèmes vocaux en temps réel non publiés afin de déterminer comment ils pourraient être employés pour soutenir la recherche en biosciences.

L'objectif de cette collaboration est de fournir un cadre pour le déploiement responsable et sûr des modèles d'IA de pointe dans les environnements de laboratoire, en veillant à ce que la technologie puisse être exploitée pour améliorer la découverte et l'innovation scientifiques tout en abordant les risques potentiels et les considérations éthiques.

Nintendo rejette l'IA générative dans les jeux vidéo

Nintendo, la célèbre entreprise de jeux vidéo, a pris une position ferme contre l'utilisation de l'IA générative dans ses jeux vidéo. Selon les rapports, Nintendo est devenue la plus grande entreprise de l'industrie du jeu, et peut-être du monde, à dire explicitement "non merci" à l'intégration de l'IA générative.

La décision de l'entreprise contraste avec l'approche adoptée par de nombreux autres développeurs de jeux, qui explorent activement les moyens d'intégrer la technologie de l'IA dans leurs jeux. Nintendo, cependant, valorise la préservation de sa propriété intellectuelle bien établie et des expériences de jeu uniques qu'elle a créées au fil des années.

Lors d'un appel aux investisseurs, le PDG de Nintendo a exprimé la position de l'entreprise, indiquant que bien que le développement de jeux et la technologie de l'IA aient toujours été étroitement liés, l'utilisation de l'IA générative peut soulever des préoccupations concernant les droits de propriété intellectuelle. Le PDG a souligné que Nintendo a l'expertise pour créer des expériences de jeu optimales pour ses clients et que l'entreprise vise à continuer à offrir une valeur unique et qui ne peut pas être facilement reproduite par la technologie seule.

Cette décision de Nintendo reflète l'engagement de l'entreprise à maintenir son contrôle créatif et l'intégrité de ses personnages et franchises emblématiques. Elle met également en évidence le débat en cours dans l'industrie du jeu sur le rôle de l'IA dans la création de contenu et l'impact potentiel sur les processus de développement traditionnels de l'industrie.

Alors que le paysage du jeu continue d'évoluer, il sera intéressant de voir comment d'autres acteurs majeurs de l'industrie réagiront à la position de Nintendo et si l'utilisation de l'IA générative dans les jeux vidéo sera plus largement adoptée ou fera face à une résistance supplémentaire de la part des entreprises qui accordent la priorité à leurs identités créatives uniques.

La fenêtre de contexte longue de Gemini 1.5 aide les robots à naviguer dans le monde

Google DeepMind a publié une vidéo montrant comment la fenêtre de contexte longue de Gemini 1.5 peut aider les robots à naviguer dans le monde réel. Les points clés sont les suivants :

  • Une longueur de contexte limitée rend difficile pour de nombreux modèles d'IA de se rappeler des environnements lors de leurs déplacements.
  • Avec la fenêtre de contexte d'un million de jetons de Gemini 1.5, les robots ont pu se rappeler des endroits clés d'une visite précédente, comme "le bureau de Lewis" et "la zone de bureau temporaire".
  • Les robots ont ensuite reçu des entrées multimodales supplémentaires, comme des croquis de cartes, des demandes audio et des indices visuels. Avec ces entrées, les robots ont pu effectuer diverses actions pour différentes personnes.
  • Les chercheurs ont publié un article avec plus de détails sur ces expériences, qui peut être trouvé dans la description ci-dessous.

Dans l'ensemble, cela démontre comment les capacités de mémoire à long terme de Gemini 1.5 peuvent permettre aux robots de mieux naviguer et d'interagir avec des environnements du monde réel, en se rappelant et en utilisant des informations contextuelles d'expériences précédentes.

La mise à jour du pilotage automatique complet de Tesla anticipe le passage des piétons

La dernière mise à jour du logiciel Full Self-Driving (FSD) de Tesla, la version 12.4.2, montre une capacité impressionnante - la capacité d'anticiper un piéton traversant la rue. Dans la vidéo partagée, le véhicule Tesla ne attend pas que le piéton commence à traverser, mais ralentit plutôt lorsqu'il détecte les mouvements du piéton, indiquant une intention probable de traverser la rue. Ce comportement proactif, où le véhicule anticipe les actions du piéton plutôt que de simplement réagir à elles, démontre une avancée significative dans la technologie de conduite autonome de Tesla.

La vidéo met en évidence la façon dont les capteurs et les algorithmes de Tesla sont capables de détecter des indices subtils dans les mouvements du piéton, même avant qu'il ne fasse un mouvement définitif pour traverser la rue. Ce niveau de conscience situationnelle et de capacité de prédiction est essentiel pour assurer la sécurité des occupants du véhicule et des piétons dans des scénarios de conduite du monde réel.

La manière fluide et harmonieuse avec laquelle le Tesla ralentit en réponse aux mouvements du piéton est un témoignage du raffinement du logiciel FSD. Cette mise à jour souligne l'engagement de Tesla à améliorer en permanence ses capacités de conduite autonome, rendant les routes plus sûres pour tous les utilisateurs.

FAQ