AI ニュース: マイクロソフトの新しい AI ロボット、OpenAI の訴訟、GitHub Copilot と Claude 3 の更新

このAIニュースラウンドアップでは、マイクロソフトの新しいAIロボット、新聞社がOpenAIを訴えたこと、Claude 3のアップデート、AIの未来についてのTEDトーク、NISTのAIリスクフレームワーク、マイクロソフトとSanctuary AIの人型ロボットに関する協力について取り上げています。主なトピックには、法的課題、AI安全性、ロボット工学、言語モデルの進化が含まれています。

2025年2月14日

party-gif

AIの最新の進歩を発見しましょう。マイクロソフトの新しいAIロボットからOpenAIの法的な争いまで、GitHub Copilotの更新など、このブログ記事では、最も重要なAIニュースと開発の包括的な概要を提供し、この急速に進化するフィールドの最先端を維持するのに役立つ洞察を提供します。

オープンAIを8つの新聞社が提訴:告発と影響

アルデン・グローバル・キャピタルが所有する8つの日刊新聞が、OpenAIとMicrosoftを提訴しました。テクノロジー企業が、AI チャットボットの強化のために、無断で記事を使用したと主張しています。ニューヨーク・デイリー・ニュース、シカゴ・トリビューン、オーランド・センチネルなどの出版社は、チャットボットが定期購読の壁の背後にある記事全体を表示し、読者の定期購読の必要性を減らし、購読料と配信権使用料の収入を奪っていると主張しています。

新聞社は、OpenAIとMicrosoftが「情報を収集し、ニュースを報道するために数十億ドルを費やしている」にもかかわらず、「自社のビジネスを構築するために、私たちの仕事を盗もうとしている」と主張しています。訴状によると、チャットボットは、しばしば情報源への明確なリンクを示さず、読者の定期購読の必要性をさらに減らしているとされています。

この訴訟は、AI モデルの訓練における著作権コンテンツの使用をめぐる議論を浮き彫りにしています。この事例の結果は、今後の訴訟の先例となる可能性があり、より多くのコンテンツ制作者や出版社が、AI システムでの自身の作品の使用に対する補償を求めるかもしれません。この事例の解決は、一般に利用可能な情報を活用する際のAI企業の境界と責任を決定する上で重要となります。

Claude AIアップデート:Teams統合とモバイルアプリ

Anthropicが開発したAIアシスタントのClaudeが、Teams連携とモバイルアプリの導入を含む大幅なアップデートを受けました。

Teams連携により、ユーザーはチームと協力してClaudeを使用できるようになりました。この機能により、ユーザーは同僚と作業を共有・議論でき、チーム環境でClaudeの機能を活用しやすくなります。Teamsティアによる使用量の増加により、ユーザーはClaudeとのやり取りを増やし、生産性と効率性を高めることができます。

モバイルアプリは、ユーザーがデスクトップから離れた場所でもClaudeにアクセスできるようにします。これは、ユーザーがClaudeのビジョン機能を活用する必要がある場合に特に便利です。モバイルアプリにより、ユーザーは携帯電話から直接画像をAIアシスタントに転送できるようになりました。

これらのClaudeの更新は歓迎すべき追加機能です。これらは、以前AIアシスタントに存在していた制限の一部に対処しています。Teams連携とモバイルアプリ機能により、Claudeがより幅広い場面で活用できるようになり、ユーザーにとってより便利で柔軟なものとなっています。AI技術が進化し、日常生活に深く組み込まれていくにつれ、このようなアップデートは、技術の関連性と有用性を維持するために不可欠です。

AIトレンド:パーソナライズされたAI体験の台頭

人工知能の世界は急速に進化しており、その中で注目されるトレンドの1つが、個人向けAI体験の台頭です。AI システムが高度化するにつれ、企業はユーザーの注意を長期的に引き付けられるような、ユニークで魅力的なユーザー体験の創出に注力しています。

このトレンドの代表例が、Character AIのようなプラットフォームの台頭です。これらのプラットフォームは、ユーザー作成のさまざまなキャラクターとのやり取りを可能にし、従来の質問応答型AIアシスタントよりも没入感のある体験を提供しています。

データによると、これらの個人向けAIプラットフォームは若年層を惹きつけており、Character AIの視聴者の約60%が18-24歳です。これは、次世代のAIユーザーがより深いパーソナライゼーションと対話性を提供する体験に惹かれる可能性を示唆しています。

さらに、ユーザーの関与パターンの変化も注目に値します。ChatGPTのようなプラットフォームは夏季に Web トラフィックの減少を見せたのに対し、個人向けAIプラットフォームは一貫したユーザーベースを維持しています。これは、これらのプラットフォームがユーザーの注意と関与を長期的に維持する能力に優れている可能性を示唆しています。

AI 業界の進化に伴い、個人向けで魅力的なユーザー体験を創出する能力が、AI企業の成功を左右する重要な要因となることは明らかです。Character AIのような プラットフォームへの投資と成長は、汎用言語モデルへの集中ではなく、より没入型でユーザー中心のAI体験の開発が、AIの未来につながる可能性を示唆しています。

GPT-2モデルの混乱:憶測と不確実性

「GPT2」と呼ばれる新しいモデルのリリースが、AI コミュニティの中で多くの混乱と憶測を引き起こしています。この状況について以下の重要なポイントがあります。

  • このモデルは「GPT2」と呼ばれていますが、2019年にOpenAIがリリースしたGPT-2とは関係がないようで、この命名は混乱を招いています。

  • この新しい「GPT2」モデルが実際に何であるかについて、多くの理論が流布されています。一部の人は、オリジナルのGPT-2の微調整版かもしれないと推測していますが、完全に新しいアーキテクチャーかもしれないと考える人もいます。

  • OpenAIのCEOであるSam Altmanがこの「GPT2」モデルについてツイートしたことで、人々はOpenAIの取り組みとの関連性を疑っています。

  • 全体として、この「GPT2」モデルの出自、機能、目的について多くの不確certainty があります。開発者からの明確な情報がないため、AI コミュニティ内で多くの理論と憶測が広がっています。

開発者からの詳細な情報がない限り、この新しい「GPT2」モデルが何を表しているのかを断言するのは難しいです。実験的なシステム、新しい推論エンジンのテスト、あるいは全く別のものかもしれません。前のGPTモデルとの関係の曖昧さが、AI 界隈での多くの議論と不確実性を引き起こしています。

NIST、AIリスク管理フレームワークを発表:主要な焦点と考慮事項

国立標準技術研究所(NIST)は、ジェネレーティブAIの管理に焦点を当てたリスク管理フレームワーク「NIST AI 600-1」を発表しました。このフレームワークは、特に以下の分野におけるAIシステムのリスクを評価することを目的としています。

  1. CBRN情報リスク: フレームワークは、チャットボットが化学、生物、放射線、核(CBRN)兵器に関する情報の分析と普及を容易にする可能性を指摘しています。これにより、悪意のある行為者の研究が容易になる可能性があります。

  2. 虚構: フレームワークは、AIシステムの応答の確信度や付随するロジックや引用により、ユーザーが虚偽のコンテンツを信じてしまうリスクに取り組んでいます。これにより、misinformationの助長につながる可能性があります。

  3. バイアスと均質化されたコンテンツ: フレームワークは、AIシステムがバイアスのかかったり均質化されたコンテンツを生成する可能性を認識しています。これは、社会的に悪影響を及ぼす可能性があります。

  4. 情報の完全性: フレームワークは、AIシステムが情報の完全性を損なう可能性に焦点を当てています。これにより、虚偽または誤解を招くコンテンツの拡散につながる可能性があります。

  5. 環境への影響: フレームワークは、AIシステムのエネルギー消費やカーボンフットプリントなど、環境への影響も考慮しています。

NIST AI 600-1フレームワークは、予防的なリスク管理の重要性と、AIシステムの展開に伴うリスクを慎重に評価する必要性を強調しています。AIの開発者とユーザーに、これらのリスクを特定、評価、軽減する方法についてのガイダンスを提供しています。

これらの重要な分野に取り組むことで、このNISTフレームワークは、AIテクノロジーの責任あり、倫理的な開発と利用を促進することを目指しています。

Sanctuary AIとMicrosoft協業:ヒューマノイドロボット技術の加速

カナダのヒューマノイドロボット企業のSanctuary AIは、マイクロソフトとの提携を発表しました。この提携は、汎用ロボットの開発を加速することを目的としています。この取り組みは、大規模言語モデル(LLM)とマイクロソフトのAI機能を活用し、物理世界に根ざしたAIシステムの実現を目指しています。

Sanctuary AIは、世界初の人間のような知性を持つロボットの創造を目指しています。その「Phoenix」プラットフォームがこの取り組みの基盤となっています。LLMとSanctuary AIのPhoenixロボットを組み合わせることで、これらのシステムが現実世界の経験から学習し、理解できるようになることが期待されています。

この提携では、マイクロソフトのAI制御システムをSanctuary AIのPhoenixロボットに統合することになります。この統合は、汎用ロボット、つまり具現化されたAGIの開発に不可欠な大規模行動モデルの進展を後押しすると考えられています。

Sanctuary AIは最近、Phoenix Generation 7ロボットをリリースし、優れた器用さと自律性を実証しました。しかし、同社はこれまでその製品に注目を集めるのに苦労してきました。このマイクロソフトとの提携は、Sanctuary AIの技術を脚光に浴びせる必要な後押しとなるかもしれません。

物理世界にAIを根付かせることは、汎用人工知能(AGI)の実現に向けた重要なステップです。Sanctuary AIのロボット工学の専門知識とマイクロソフトのAI機能を組み合わせることで、この提携は、より自然で直感的な方法で現実世界を理解し、対話できる高度なヒューマノイドロボットの開発を加速することを目指しています。

AGIをめぐる競争が続く中、Sanctuary AIとマイクロソフトのような提携は、物理的・デジタルの両領域を統合することの重要性を浮き彫りにしています。この提携は、幅広い課題に取り組める、より高度で多用途なヒューマノイドロボットの実現につながる可能性があります。

結論

提供された内容の主なポイントは以下の通りです。

  1. OpenAIとMicrosoftは、8つの新聞社から訴訟を受けています。AI チャットボットが著作権のある記事を無断で使用して自社のモデルを訓練したと主張されています。これは、今後のAI訓練における公開データの利用に関する重要な先例となります。

  2. AnthropicのアシスタントのClaudeが、Teams連携とモバイルアプリの追加など、新機能を備えてアップデートされました。これにより、Claudeが他のAIアシスタントとの競争力を高めることができます。

  3. ヘレン・トーナーのTEDトークでは、AIカンパニーがソーシャルメディアのようなプラットフォームに進化し、有益なAIアプリケーションよりもユーザー参加に重点を置くリスクについて議論されました。データによると、一部のAIチャットボットは若年層を中心に高い利用者参加を示しています。

  4. 新しいGPT-2モデルがリリースされ、その目的やGPT-4との関係について混乱と憶測が広がっています。OpenAIからの明確なコミュニケーションの欠如により、根拠のない噂が多数流布されています。

  5. NISTは、ジェネレーティブAIのリスク管理フレームワークを発表しました。これには、これらのモデルが武器の作成などの有害な目的に悪用される可能性への懸念が含まれています。

  6. Sanctuary AIはマイクロソフトと提携し、汎用ロボットの開発を加速することを発表しました。これは具現化されたAGIの実現に向けた重要な一歩となる可能

FAQ