Puces IA de pointe, retard vocal GPT-4, domination de Claude 3.5 et jeux alimentés par l'IA

Explorez les dernières avancées de l'IA, notamment les puissants puces IA, le retard vocal d'OpenAI, la domination de Claude 3.5 et les innovations de jeux alimentées par l'IA. Restez à la pointe de l'évolution rapide du paysage de l'IA.

16 février 2025

party-gif

Découvrez les dernières avancées de la technologie de l'IA, des puces IA révolutionnaires et des capacités vocales à la domination des modèles d'IA dans le codage et le développement de jeux vidéo. Cet article de blog offre un aperçu complet des nouvelles les plus importantes sur l'IA, vous équipant des informations nécessaires pour rester à la pointe de la courbe.

Le nouveau chip IA qui surpasse les GPU

La première histoire d'aujourd'hui concerne une nouvelle entreprise de puces IA appelée Etched, qui prétend pouvoir générer plus de 500 000 jetons par seconde en exécutant LLaMA 70B. Cette puce, appelée Sohu, est le premier ASIC (circuit intégré spécialisé) dédié aux modèles Transformer.

On dit que Sohu est plus de 10 fois plus rapide et moins cher que même les futures puces Blackwell d'Nvidia. Un serveur Sohu peut exécuter plus de 500 000 jetons LLaMA 70B par seconde, soit 20 fois plus qu'un Nvidia H100 et 10 fois plus qu'un Blaize B2.

L'avantage clé de Sohu est sa spécialisation pour les modèles Transformer, qui sont la base de la plupart des principaux produits IA d'aujourd'hui. L'entreprise affirme que, alors que les modèles Transformer deviennent plus dominants, des puces sur mesure comme Sohu seront essentielles, car les GPU ne s'améliorent pas assez rapidement en densité de calcul pour suivre le rythme.

Etched pense que l'architecture qui exécute les Transformers le plus rapidement et le moins cher sur le matériel remportera la « loterie du matériel ». Ils affirment que les laboratoires d'IA dépensent des centaines de millions pour optimiser les noyaux pour les Transformers, et que les startups utilisent des bibliothèques logicielles Transformer spécialisées, rendant difficile pour les « tueurs de Transformer » de rattraper leur retard sur les GPU.

Le retard des capacités vocales d'OpenAI

OpenAI a annoncé un retard dans le déploiement du mode vocal avancé pour ChatGPT, qui avait été précédemment démontré lors de la mise à jour du printemps. L'entreprise cite la nécessité d'améliorer la capacité du modèle à détecter et refuser certains contenus, ainsi que d'améliorer l'expérience utilisateur et de préparer l'infrastructure pour passer à l'échelle de millions d'utilisateurs tout en maintenant des réponses en temps réel.

L'entreprise prévoit de commencer à déployer la version alpha du mode vocal avancé à un petit groupe d'utilisateurs ChatGPT Plus fin juin, dans le but de le rendre accessible à tous les utilisateurs Plus à l'automne. Cependant, le calendrier exact dépendra du respect de leurs normes élevées de sécurité et de fiabilité.

OpenAI travaille également sur le déploiement de nouvelles capacités de vidéo et de partage d'écran, qui seront annoncées séparément. Le mode vocal avancé devrait rapprocher ChatGPT des conversations naturelles en temps réel avec l'IA, avec la capacité de comprendre et de répondre avec des émotions et des signaux non verbaux.

La domination du modèle Claude 3.5 d'Anthropic

Le modèle Claude 3.5 d'Anthropic a fait un bond significatif, se classant au premier rang dans l'Arena des prompts Arita difficiles en codage et au deuxième rang du classement général. Le nouveau modèle Sonet a dépassé Opus à une fraction du coût, le rendant compétitif avec des modèles Frontier comme GPT-4 et Gemini 1.5 Pro sur toute la ligne.

Dans une vidéo précédente, le créateur a testé le modèle Claude 3.5 Sonet et l'a trouvé être le meilleur modèle qu'il ait jamais testé. Le modèle a complètement démoli les tests du créateur, ce qui a entraîné une demande de nouveaux tests plus difficiles.

Les comparaisons entre Claude 3.5 et GPT-4 sur les tâches de codage montrent que Claude 3.5 surpasse GPT-4 en termes de réussite des tâches et de réussite des projets complets, bien que GPT-4 ait un taux de réussite de la construction légèrement plus élevé. De plus, Claude 3.5 est plus verbeux, ce qui peut être bénéfique pour les morceaux de code plus longs, mais peut ralentir la génération. Le modèle a également tendance à être moins fiable dans le suivi des instructions dans les grands invites par rapport à GPT-4.

Les images de jeu vidéo générées par IA

La vidéo présentée par l'utilisateur Twitter chubby est vraiment remarquable, car elle démontre les incroyables capacités de l'IA à générer des images de jeux vidéo réalistes. Les visuels, qui semblent s'inspirer d'un jeu de style Call of Duty, sont étonnamment réalistes, avec le son et les visuels générés par l'IA se fondant harmonieusement pour créer une expérience immersive.

Bien que la qualité des images soit impressionnante, la quantité de puissance de calcul nécessaire pour atteindre ce niveau de réalisme en temps réel reste un défi important. Comme l'a mentionné Jensen, le PDG d'Nvidia, c'est l'avenir des jeux vidéo, et cela portera l'industrie à de nouveaux sommets.

La vidéo met en lumière les progrès rapides de la génération de contenu alimentée par l'IA, où la ligne entre la réalité et la création artificielle devient de plus en plus floue. À mesure que la technologie continuera à évoluer, nous pouvons nous attendre à voir des expériences de jeux vidéo générées par l'IA encore plus impressionnantes et réalistes dans un avenir proche.

Les préoccupations d'Apple concernant l'intégration de l'IA de Meta

Apple a décidé de ne pas intégrer les modèles IA de Meta, comme le modèle Llama 3, dans Siri en raison de préoccupations concernant la vie privée. Cette décision intervient quelques jours seulement après que des informations ont fait surface selon lesquelles Apple était en pourparlers avec Meta pour intégrer les modèles IA de cette dernière.

La principale raison de la décision d'Apple est les préoccupations de l'entreprise concernant les pratiques de confidentialité de Meta. Apple a été très critique envers l'approche de Meta en matière de confidentialité des utilisateurs, et le géant de la technologie ne veut probablement pas être associé à une entreprise qui a fait l'objet de nombreux scandales liés à la vie privée.

Même si Apple aurait pu héberger les modèles IA elle-même et maintenir le contrôle sur les aspects de confidentialité, l'entreprise a quand même choisi de ne pas procéder à l'intégration. Cela suggère que les préoccupations d'Apple vont au-delà de la simple mise en œuvre technique et s'étendent aux risques de réputation plus larges d'un partenariat avec Meta.

Cette décision met en évidence l'engagement d'Apple envers la vie privée des utilisateurs et sa volonté de renoncer à des capacités IA potentielles si elles se font au détriment de ses valeurs fondamentales. Cela souligne également l'importance croissante de la vie privée dans l'industrie technologique, alors que les entreprises naviguent entre l'innovation et la protection des données des utilisateurs.

FAQ