Erreurs de l'IA de Google : Mettre de la colle dans la pizza et d'autres erreurs choquantes

Découvrez les erreurs choquantes de l'IA de Google, notamment les recommandations de mettre de la colle dans la pizza et d'autres erreurs bizarres. Explorez les derniers développements de l'IA des géants de la technologie comme Microsoft, Meta et plus encore. Restez informé sur l'évolution du paysage de la technologie de l'IA et de ses implications.

24 février 2025

party-gif

Découvrez les dernières nouvelles et les idées les plus intéressantes sur l'IA dans cet article de blog informatif. Explorez les défis auxquels sont confrontés les géants de la technologie comme Google et OpenAI, et apprenez-en davantage sur les développements passionnants des fonctionnalités alimentées par l'IA de Microsoft. Restez à la pointe de l'évolution et acquérez une compréhension approfondie du monde en constante évolution de l'intelligence artificielle.

Les erreurs d'IA de Google : des recommandations désastreuses qui ont mal tourné

Il semble que les derniers efforts d'IA de Google aient été aux prises avec des problèmes majeurs, comme en témoignent les nombreuses réponses préoccupantes que leur IA a fournies lorsqu'elle a été interrogée directement via Google Search.

Voici quelques exemples de recommandations problématiques de l'IA :

  • Suggérer d'ajouter de la colle non toxique à la sauce à pizza pour faire mieux tenir le fromage.
  • Affirmer que 1919 était il y a 20 ans.
  • Recommander aux femmes enceintes de fumer 2 à 3 cigarettes par jour.
  • Affirmer qu'il est toujours sûr de laisser un chien dans une voiture chaude.
  • Fabriquer des détails sur la mort fictive d'un personnage de Bob l'éponge.
  • Fournir un processus complexe en plusieurs étapes pour déterminer le nombre de sœurs d'une personne.

Ces réponses générées par l'IA ne sont pas seulement inexactes, mais dans de nombreux cas, elles pourraient être activement nuisibles si on les suivait. Il semble que l'IA de Google ait du mal à fournir des informations fiables et factuelles lorsqu'elle est interrogée directement, ce qui soulève de sérieuses inquiétudes quant à la sécurité et à la fiabilité de l'intégration d'une telle technologie dans les fonctionnalités de recherche de base.

Bien que Google ait affirmé que la voix utilisée dans leur récente démonstration de GPT-4 n'était pas celle de Scarlett Johansson, la similitude a suscité la controverse et des questions sur leurs pratiques. Le partenariat de l'entreprise avec News Corp soulève également des inquiétudes quant aux biais potentiels, bien que Google affirme que les données d'entraînement existantes sont la principale préoccupation, et non le nouvel accès au contenu.

Dans l'ensemble, ces incidents soulignent le besoin crucial de tests rigoureux, de supervision et de transparence alors que les systèmes d'IA s'intègrent de plus en plus profondément dans les services quotidiens. Google devra s'attaquer rapidement à ces problèmes pour maintenir la confiance des utilisateurs et assurer la sécurité de ses offres alimentées par l'IA.

Yan Luo quitte OpenAI et soulève des préoccupations en matière de sécurité

Yan Luo, le responsable de l'alignement supérieur chez OpenAI, a quitté l'entreprise. Dans un fil de discussion sur Twitter, Luo a exprimé des préoccupations concernant les priorités d'OpenAI, déclarant qu'il a "été en désaccord avec la direction d'OpenAI sur les priorités fondamentales de l'entreprise depuis un certain temps".

Luo estime que plus de la bande passante d'OpenAI devrait être consacrée à "se préparer aux prochaines générations de modèles en matière de surveillance de la sécurité, de préparation, de sécurité, de robustesse face aux attaques, d'alignement supérieur, de confidentialité, d'impact sociétal et de sujets connexes". Il craint que ces domaines de recherche cruciaux n'aient été relégués au second plan au profit de "produits brillants".

Le départ de Luo intervient peu après celui d'Ilya Sutskever, le scientifique en chef d'OpenAI. Bien que Sutskever soit parti en bons termes, le départ de Luo semble plus conflictuel, avec la suggestion que les employés d'OpenAI qui critiquent l'entreprise peuvent faire face à des conséquences, comme la perte d'actions acquises.

Le PDG d'OpenAI, Sam Altman, a reconnu les préoccupations de Luo et a déclaré que l'entreprise s'engageait à y répondre. Cependant, la situation met en lumière le débat en cours au sein de la communauté de l'IA sur l'équilibre entre l'innovation et la sécurité.

Alors que le développement de systèmes d'IA avancés se poursuit, l'importance de donner la priorité à la sécurité et à l'alignement avec les valeurs humaines devient de plus en plus cruciale. Le départ de Luo d'OpenAI souligne la nécessité pour les entreprises d'IA de maintenir un accent fort sur ces questions essentielles.

La controverse sur la voix d'OpenAI : le différend avec Scarlett Johansson

Selon les rapports, la récente démonstration de GPT-4 par OpenAI a présenté une voix très similaire à celle de l'actrice Scarlett Johansson dans le film "Her". Apparemment, OpenAI s'était adressé à Johansson pour utiliser sa voix, mais elle a refusé. Cependant, OpenAI affirme avoir engagé un comédien dont la voix se trouve par hasard être similaire, et qu'il n'a jamais été dans leur intention de reproduire la voix de Johansson.

Cela a suscité une controverse, beaucoup pensant qu'OpenAI a simplement trouvé un moyen d'utiliser un comédien dont la voix ressemble à celle de Johansson, même s'ils n'ont pas eu l'autorisation d'utiliser sa voix réelle. Bien qu'OpenAI affirme ne pas avoir copié la voix de Johansson, le public semble s'être rangé du côté de l'actrice, voyant cela comme un cas de zone grise.

Les points clés sont les suivants :

  • OpenAI s'est adressé à Scarlett Johansson pour utiliser sa voix, mais elle a refusé.
  • OpenAI affirme avoir engagé un comédien dont la voix se trouve par hasard être similaire, sans avoir l'intention de reproduire la voix de Johansson.
  • Beaucoup pensent qu'OpenAI a trouvé un moyen d'utiliser un comédien à la voix similaire, même s'ils n'ont pas eu l'autorisation d'utiliser la voix réelle de Johansson.
  • C'est une zone grise controversée, le public se rangeant davantage du côté de Johansson sur la question.

Dans l'ensemble, cet incident a soulevé des questions sur l'éthique et la transparence de la génération de voix par IA, en particulier lorsqu'il s'agit d'utiliser des voix qui ressemblent de près à de vraies personnes sans leur consentement.

Le partenariat d'OpenAI avec News Corp : implications potentielles de biais

OpenAI a récemment annoncé un partenariat avec News Corp, leur donnant accès au contenu des principales publications d'information et d'actualités. Cela a soulevé des inquiétudes quant aux biais potentiels qui pourraient être introduits dans les modèles de langage d'OpenAI, en particulier ChatGPT.

Cependant, la réalité est que le contenu de News Corp est probablement déjà intégré dans ChatGPT, et ce partenariat offre simplement une approche plus éthique et transparente pour accéder à ces données. Les biais existants dans les données d'entraînement ne devraient pas être significativement modifiés par ce nouvel accord.

Bien que News Corp soit connu pour ses positions politiques plus extrêmes, notamment à travers sa division Fox News, l'impact sur les résultats de ChatGPT ne devrait pas être substantiel. Le modèle de langage a déjà été entraîné sur une vaste quantité de données en ligne, qui incluent probablement du contenu provenant d'une grande variété de sources d'information, à la fois de gauche et de droite.

Le partenariat avec News Corp fournit simplement à OpenAI l'autorisation légale d'utiliser ce contenu dans leurs futurs entraînements, plutôt que de s'appuyer sur des sources de données potentiellement biaisées ou incomplètes. Cette démarche de transparence et d'acquisition éthique de données est une étape positive, même si les implications pratiques pour les résultats de ChatGPT peuvent être limitées.

En fin de compte, bien que le partenariat avec News Corp soulève des inquiétudes légitimes quant aux biais potentiels, la réalité est que les résultats de ChatGPT sont probablement déjà influencés par une diversité de sources d'information, tant en termes d'orientation politique que de qualité. Le partenariat vise davantage à formaliser et à légitimer les sources de données utilisées, plutôt qu'à introduire de nouveaux biais significatifs dans le modèle de langage.

Rumeur : Apple va intégrer les modèles d'OpenAI dans Siri

Cela relève davantage du domaine des rumeurs, mais c'est une affirmation qui mérite d'être examinée. Selon le site Mac Daily News, il y a une rumeur selon laquelle Apple va s'associer à OpenAI et que cela sera annoncé lors de la WWDC.

Cela a également été rapporté par Bloomberg, mais n'a pas encore été confirmé par Apple ou OpenAI. La rumeur actuelle est que la nouvelle version de Siri sur le prochain iPhone d'Apple pourrait potentiellement être alimentée par les derniers modèles de GPT d'OpenAI.

Nous avons également entendu des rumeurs selon lesquelles Apple aurait discuté avec Google pour intégrer Gemini, un autre modèle de langage de grande taille, dans leurs produits. Cependant, nous ne saurons avec certitude quel sera le résultat jusqu'à l'événement WWDC.

Si la rumeur s'avère vraie et qu'Apple finit par intégrer les modèles d'OpenAI dans Siri, cela pourrait potentiellement entraîner des améliorations significatives des capacités de Siri. Les modèles de langage d'OpenAI, comme GPT-4, ont démontré des performances impressionnantes dans une variété de tâches. Leur intégration pourrait aider à rendre Siri plus conversationnel, plus savant et capable de comprendre et de répondre aux requêtes en langage naturel.

Parallèlement, il pourrait y avoir des préoccupations concernant les biais ou les limites potentiels que les modèles d'OpenAI pourraient introduire. Il sera important pour Apple d'évaluer et de traiter soigneusement ces éventuels problèmes afin de s'assurer que Siri reste un assistant fiable et digne de confiance.

Dans l'ensemble, la rumeur d'un partenariat entre Apple et OpenAI pour Siri est une piste intéressante, et il sera intéressant de voir si elle se concrétise lors du prochain événement WWDC. Comme pour toute rumeur, il est préférable d'attendre une confirmation officielle avant de tirer des conclusions.

Faits saillants de l'événement Microsoft Build : PC Co-Pilot, fonction de rappel et plus encore

Lors de l'événement Microsoft Build à Seattle, le géant de la technologie a dévoilé plusieurs nouvelles fonctionnalités et mises à jour passionnantes :

  1. Co-Pilot PCs : Microsoft a présenté les "Co-Pilot PCs" - des ordinateurs dotés d'une unité de traitement neuronale (NPU) dédiée pour exécuter l'inférence IA localement, permettant aux utilisateurs d'interagir avec des assistants IA sans dépendre du cloud.

  2. Fonctionnalité Recall : Une nouvelle fonctionnalité appelée "Recall" a été annoncée, permettant aux utilisateurs de visualiser l'historique complet de leur utilisation de l'ordinateur, y compris la navigation, les applications et plus encore. Cependant, cette fonctionnalité a soulevé des préoccupations en matière de confidentialité en raison du risque potentiel d'exposition de données sensibles si l'appareil est perdu ou compromis.

  3. Améliorations de Microsoft Paint : Microsoft Paint a reçu des améliorations alimentées par l'IA, notamment la capacité de générer des images, d'améliorer les croquis et de retravailler les images existantes.

  4. Améliorations du navigateur Edge : Le navigateur Microsoft Edge a gagné de nouvelles capacités de traduction et de transcription, permettant la traduction et la transcription en temps réel pendant les appels vidéo et les réunions.

  5. Co-Pilot pour Teams : Microsoft a présenté un "membre d'équipe" IA qui peut être intégré à Microsoft Teams, aidant avec des tâches telles que la création de listes de contrôle et la synthèse des réunions.

  6. Modèle de langage F3 : Microsoft a annoncé un nouveau petit modèle de langage multimodal appelé "F3", qui sera probablement comparé par les experts du domaine à d'autres modèles de langage de grande taille.

  7. Extensions GitHub Co-Pilot : Microsoft a étendu les capacités de GitHub Co-Pilot, ajoutant des intégrations avec divers outils de développement et la possibilité de créer des extensions privées personnalisées.

Dans l'ensemble, l'événement Microsoft Build a montré que l'entreprise continue de se concentrer sur l'intégration des technologies IA dans ses produits et services, dans le but d'améliorer la productivité et l'expérience utilisateur.

Conclusion

Les récents développements dans le monde de l'IA ont été assez mouvementés. Des gaffes de l'IA de Google aux départs de personnages clés d'OpenAI, l'industrie a été animée par des nouvelles et des controverses.

Les résultats de recherche de l'IA de Google ont soulevé des inquiétudes quant à la fiabilité et à la sécurité des systèmes d'IA, l'entreprise recommandant des solutions douteuses comme l'ajout de colle à la sauce à pizza. Cela met en évidence la nécessité de tests et de supervision rigoureux pour s'assurer que les systèmes d'IA fournissent des informations précises et sûres.

Le départ de Yan Lecun, le responsable de l'alignement supérieur chez OpenAI, a également suscité des discussions sur les priorités de l'entreprise. Les préoccupations de Lecun concernant l'accent mis par OpenAI sur les "produits brillants" plutôt que sur la sécurité et la sûreté sont un rappel sombre des défis du développement de systèmes d'IA avancés.

Les annonces de Microsoft lors de l'événement Build, notamment l'introduction des ordinateurs Copilot Plus et de la nouvelle fonctionnalité Recall, ont généré à la fois de l'enthousiasme et des préoccupations en matière de confidentialité. Bien que les capacités alimentées par l'IA soient prometteuses, les risques de sécurité potentiels associés à la fonctionnalité Recall doivent être abordés.

Dans le domaine de l'art IA, des plateformes comme Leonardo AI et Midjourney continuent d'évoluer, introduisant de nouvelles fonctionnalités et des outils de collaboration. L'intégration de Adobe Firefly dans Lightroom illustre également l'intégration croissante des outils alimentés par l'IA dans les workflows créatifs.

Dans l'ensemble, le paysage de l'IA reste dynamique et en évolution rapide, avec à la fois des progrès et des défis émergents. Alors que la technologie continue d'évol

FAQ