NOUVELLES IA : Le nouveau robot IA de Microsoft, OpenAI poursuivi, GitHub Copilot et mises à jour de Claude 3
Dans ce tour d'horizon des actualités de l'IA, nous couvrons le nouveau robot IA de Microsoft, la poursuite d'OpenAI par des journaux, les mises à jour de Claude 3, une conférence TED sur l'avenir de l'IA, le cadre de gestion des risques liés à l'IA de la NIST et la collaboration de Microsoft avec Sanctuary AI sur les robots humanoïdes. Les principaux sujets abordés sont les défis juridiques, la sécurité de l'IA, la robotique et l'évolution des modèles de langage.
15 février 2025

Découvrez les dernières avancées de l'IA, des nouveaux robots IA de Microsoft aux batailles juridiques d'OpenAI, en passant par les mises à jour de GitHub Copilot et bien plus encore. Cet article de blog offre un aperçu complet des nouvelles et des développements les plus importants de l'IA, en proposant des perspectives qui peuvent vous aider à rester à la pointe de ce domaine en évolution rapide.
Open AI poursuivi par huit journaux : allégations et implications
Mise à jour de l'IA Claude : intégration d'équipes et application mobile
Tendances de l'IA : l'essor des expériences d'IA personnalisées
Confusion autour du modèle GPT-2 : spéculations et incertitudes
Le NIST publie un cadre de gestion des risques liés à l'IA : principaux axes et considérations
Collaboration entre Sanctuary AI et Microsoft : accélération de la robotique humanoïde
Conclusion
Open AI poursuivi par huit journaux : allégations et implications
Open AI poursuivi par huit journaux : allégations et implications
Huit journaux quotidiens appartenant à Alden Global Capital ont poursuivi OpenAI et Microsoft, accusant les entreprises technologiques d'utiliser illégalement des articles de presse pour alimenter leurs chatbots d'IA. Les publications, dont le New York Daily News, le Chicago Tribune et le Orlando Sentinel, affirment que les chatbots font régulièrement apparaître des articles entiers derrière des paywalls d'abonnement, réduisant ainsi le besoin pour les lecteurs de payer des abonnements et privant les éditeurs de revenus provenant à la fois des abonnements et de la concession de licences de contenu.
Mise à jour de l'IA Claude : intégration d'équipes et application mobile
Mise à jour de l'IA Claude : intégration d'équipes et application mobile
Les journaux affirment qu'OpenAI et Microsoft ont "dépensé des milliards de dollars pour rassembler des informations et rapporter des nouvelles" et ne peuvent pas permettre aux entreprises technologiques de "voler leur travail pour construire leurs propres entreprises à nos frais". La plainte allègue que les chatbots n'ont souvent pas de lien prominent vers la source, réduisant davantage la nécessité pour les lecteurs de payer des abonnements.
Tendances de l'IA : l'essor des expériences d'IA personnalisées
Tendances de l'IA : l'essor des expériences d'IA personnalisées
Cette poursuite met en lumière le débat en cours sur l'utilisation de contenu protégé par le droit d'auteur dans la formation des modèles d'IA. L'issue de cette affaire pourrait établir un précédent pour les futurs procès, car plus de créateurs de contenu et d'éditeurs pourraient se manifester pour demander une compensation pour l'utilisation de leur travail dans les systèmes d'IA. La résolution de cette affaire sera cruciale pour déterminer les limites et les responsabilités des entreprises d'IA en matière d'utilisation d'informations publiquement disponibles.
Confusion autour du modèle GPT-2 : spéculations et incertitudes
Confusion autour du modèle GPT-2 : spéculations et incertitudes
Claude, l'assistant IA développé par Anthropic, a reçu une mise à jour importante qui comprend l'introduction de l'intégration Teams et d'une application mobile.
Le NIST publie un cadre de gestion des risques liés à l'IA : principaux axes et considérations
Le NIST publie un cadre de gestion des risques liés à l'IA : principaux axes et considérations
L'intégration Teams permet aux utilisateurs de collaborer de manière transparente avec leurs équipes en utilisant Claude. Cette fonctionnalité permet aux utilisateurs de partager et de discuter de leur travail avec leurs collègues, facilitant ainsi l'utilisation des capacités de Claude dans un environnement d'équipe. L'augmentation du quota d'utilisation fourni par le niveau Teams garantit également que les utilisateurs peuvent avoir plus de conversations avec Claude, améliorant davantage leur productivité et leur efficacité.
Collaboration entre Sanctuary AI et Microsoft : accélération de la robotique humanoïde
Collaboration entre Sanctuary AI et Microsoft : accélération de la robotique humanoïde
L'application mobile, quant à elle, permet aux utilisateurs d'accéder à Claude en déplacement. Cela est particulièrement utile pour ceux qui ont besoin d'utiliser les capacités de Claude lorsqu'ils sont éloignés de leurs bureaux. L'application mobile permet aux utilisateurs de tirer parti des capacités de vision de Claude, car ils peuvent désormais transférer des images directement depuis leurs téléphones vers l'assistant IA sans avoir à basculer entre les appareils.
Conclusion
Conclusion
Ces mises à jour de Claude sont les bienvenues, car elles répondent à certaines des limites qui étaient auparavant présentes dans l'assistant IA. L'intégration Teams et les fonctionnalités de l'application mobile rendent Claude plus accessible et polyvalent, permettant aux utilisateurs de tirer parti de ses capacités dans un éventail plus large de scénarios. Alors que l'IA continue d'évoluer et de s'intégrer davantage dans notre vie quotidienne, ce type de mises à jour est essentiel pour s'assurer que la technologie reste pertinente et utile pour une diversité d'utilisateurs et de cas d'utilisation.
Le monde de l'intelligence artificielle évolue rapidement, et l'une des tendances émergentes est l'essor des expériences d'IA personnalisées. Alors que les systèmes d'IA deviennent plus avancés, les entreprises se concentrent de plus en plus sur la création d'expériences utilisateur uniques et attrayantes qui peuvent retenir l'attention des utilisateurs pendant de plus longues périodes.
Un exemple emblématique de cette tendance est l'essor de plateformes comme Character AI, qui ont rassemblé une base d'utilisateurs importante en offrant des expériences de chatbot personnalisées. Ces plateformes permettent aux utilisateurs d'interagir avec une grande variété de personnages créés par les utilisateurs, favorisant une expérience plus immersive et engageante par rapport aux assistants IA traditionnels de questions-réponses.
Les données montrent que ces plateformes d'IA personnalisées attirent un public plus jeune, près de 60% de l'audience de Character AI étant dans la tranche d'âge 18-24 ans. Cela suggère que la prochaine génération d'utilisateurs d'IA pourrait être plus attirée par des expériences offrant un niveau de personnalisation et d'interactivité plus approfondi.
De plus, l'évolution des modèles d'engagement des utilisateurs est remarquable. Alors que des plateformes comme ChatGPT ont connu une baisse du trafic web pendant les mois d'été, probablement en raison d'une diminution de l'utilisation académique et professionnelle, les plateformes d'IA personnalisées ont maintenu une base d'utilisateurs plus stable. Cela indique que ces plateformes pourraient être mieux équipées pour retenir l'attention et l'engagement des utilisateurs dans le temps.
Alors que le paysage de l'IA continue d'évoluer, il est clair que la capacité à créer des expériences utilisateur personnalisées et engageantes sera un facteur clé pour déterminer le succès des entreprises d'IA. Les investissements et la croissance de plateformes comme Character AI suggèrent que l'avenir de l'IA pourrait résider dans le développement d'expériences plus immersives et centrées sur l'utilisateur, plutôt que dans une simple concentration sur les modèles de langage à usage général.
La récente sortie d'un modèle appelé "GPT2" a suscité beaucoup de confusion et de spéculation dans la communauté de l'IA. Voici quelques points clés sur cette situation :
- Le modèle s'appelle "GPT2", ce qui est déroutant car il semble sans rapport avec le véritable modèle GPT-2 publié par OpenAI en 2019. Ce choix de dénomination a ajouté à la confusion.
- Il y a de nombreuses théories qui circulent sur ce que ce nouveau modèle "GPT2" est en réalité. Certains spéculent qu'il pourrait s'agir d'une version affinée du GPT-2 d'origine, tandis que d'autres pensent qu'il peut s'agir d'une architecture entièrement nouvelle.
- Le fait que Sam Altman, le PDG d'OpenAI, ait tweeté à propos de ce modèle "GPT2" a encore alimenté les rumeurs et les spéculations, car les gens se demandent s'il est d'une manière ou d'une autre lié aux travaux d'OpenAI.
- Dans l'ensemble, il semble y avoir beaucoup d'incertitude autour des origines, des capacités et de l'objectif de ce modèle "GPT2". Le manque d'informations claires de la part des développeurs a conduit à une prolifération de théories et de spéculations au sein de la communauté de l'IA.
Sans plus de détails de la part des créateurs, il est difficile de dire de manière définitive ce que représente ce nouveau modèle "GPT2". Il pourrait s'agir d'un système expérimental, d'un test d'un nouveau moteur de raisonnement, ou de quelque chose d'autre. L'ambiguïté autour de sa nature et de son lien avec les modèles GPT précédents a suscité beaucoup de discussions et d'incertitude dans l'espace de l'IA.
L'Institut national des normes et de la technologie (NIST) a publié le NIST AI 600-1, un cadre de gestion des risques axé sur la gestion de l'IA générative. Ce cadre vise à évaluer les risques associés à l'utilisation des systèmes d'IA, notamment dans des domaines tels que :
- Risque informationnel CBRN : Le cadre souligne le potentiel des chatbots à faciliter l'analyse et la diffusion d'informations liées aux armes chimiques, biologiques, radiologiques et nucléaires (CBRN), ce qui pourrait faciliter la recherche pour les acteurs malveillants.
- Confabulation : Le cadre aborde le risque que les utilisateurs croient en un contenu faux généré par les systèmes d'IA en raison de la nature confiante des réponses ou de la logique et des citations qui les accompagnent, conduisant à la promotion de la désinformation.
- Contenu biaisé et homogénéisé : Le cadre reconnaît le potentiel des systèmes d'IA à générer du contenu biaisé ou homogénéisé, ce qui pourrait avoir des impacts négatifs sur la société.
- Intégrité de l'information : Le cadre se concentre sur le risque que les systèmes d'IA compromettent l'intégrité de l'information, pouvant potentiellement entraîner la diffusion de contenu faux ou trompeur.
- Impact environnemental : Le cadre prend en compte l'impact environnemental des systèmes d'IA, notamment leur consommation d'énergie et leur empreinte carbone.
Le cadre NIST AI 600-1 souligne l'importance d'une gestion proactive des risques et la nécessité pour les développeurs et les utilisateurs d'IA d'évaluer attentivement les risques potentiels associés au déploiement des systèmes d'IA. Il fournit des orientations sur la manière d'identifier, d'évaluer et d'atténuer ces risques, dans le but d'assurer un développement et une utilisation responsables et éthiques des technologies d'IA.
En abordant ces domaines critiques, le cadre NIST vise à aider les organisations et les individus à naviguer dans le paysage complexe de l'IA et à prendre des décisions éclairées qui privilégient la sécurité, la sûreté et le bien-être de la société.
Sanctuary AI, une entreprise canadienne de robotique humanoïde, a annoncé une collaboration avec Microsoft pour accélérer le développement de robots à usage général. Ce partenariat vise à tirer parti des modèles de langage à grande échelle (LLM) et des capacités d'IA de Microsoft pour ancrer les systèmes d'IA dans le monde physique.
Sanctuary AI a pour mission de créer la première intelligence humaine au monde. Leur plateforme Phoenix sert de base à cette entreprise. En combinant la puissance des LLM avec les robots Phoenix de Sanctuary AI, la collaboration cherche à permettre à ces systèmes de comprendre et d'apprendre à partir d'expériences du monde réel.
Le partenariat tirera parti du système de contrôle IA de Microsoft pour les robots Phoenix de Sanctuary AI. Cette intégration devrait favoriser les progrès vers les modèles de comportement à grande échelle, essentiels pour le développement de robots à usage général ou d'AGI incarnée.
La récente sortie du robot Phoenix Generation 7 de Sanctuary AI a montré une dextérité et une autonomie impressionnantes. Cependant, l'entreprise a dû faire face à des défis pour générer de l'engouement autour de ses offres. Cette collaboration avec Microsoft pourrait fournir l'impulsion nécessaire pour propulser la technologie de Sanctuary AI sous les projecteurs.
La capacité d'ancrer l'IA dans le monde physique grâce à des systèmes incarnés est une étape cruciale vers la réalisation de l'intelligence artificielle générale (AGI). En combinant l'expertise en robotique de Sanctuary AI avec les capacités d'IA de Microsoft, ce partenariat vise à accélérer le développement de robots humanoïdes capables de comprendre et d'interagir avec le monde réel de manière plus naturelle et intuitive.
Alors que la course à l'AGI se poursuit, des collaborations comme celle entre Sanctuary AI et Microsoft soulignent l'importance d'intégrer les domaines physique et numérique pour libérer tout le potentiel des systèmes d'IA. Ce partenariat pourrait ouvrir la voie à des robots humanoïdes plus avancés et polyvalents, capables de relever une grande variété de tâches et d'applications.
FAQ
FAQ

