人工智能新闻: Microsoft的新AI机器人, OpenAI被起诉, GitHub Copilot和Claude 3更新

在这份人工智能新闻综述中,我们报道了微软的新型人工智能机器人、OpenAI被报纸起诉、Claude 3的更新、一场关于人工智能未来的TED演讲、NIST的人工智能风险框架,以及微软与Sanctuary AI在人形机器人方面的合作。主要话题包括法律挑战、人工智能安全、机器人技术以及语言模型的发展。

2025年2月14日

party-gif

探索人工智能的最新进展,从微软的新人工智能机器人到OpenAI的法律纠纷,GitHub Copilot的更新等等。这篇博客文章提供了最重要的人工智能新闻和发展的全面概述,为您提供洞见,帮助您在这个快速发展的领域保持领先地位。

开放人工智能被八家报纸起诉:指控和影响

艾尔登全球资本拥有的八家每日报纸起诉了OpenAI和微软,指控这些科技公司非法使用新闻文章来驱动他们的AI聊天机器人。这些出版物包括纽约每日新闻、芝加哥论坛报和奥兰多哨兵报,声称聊天机器人经常在付费墙后显示整篇文章,减少了读者支付订阅费的需求,剥夺了出版商从订阅和内容许可中获得收入的机会。

这些报纸认为,OpenAI和微软"花费数十亿美元收集信息和报道新闻",不能允许这些科技公司"偷取他们的工作来建立自己的业务,而这是以我们为代价的"。投诉称,聊天机器人通常没有明显地链接回源头,进一步减少了读者支付订阅费的需求。

这起诉讼突出了在培训AI模型中使用受版权保护内容的持续争论。这起案件的结果可能会为未来的诉讼设立先例,因为更多的内容创作者和出版商可能会提出要求,寻求获得他们作品在AI系统中使用的补偿。这起案件的解决将对确定AI公司在利用公开信息方面的界限和责任至关重要。

Claude AI更新:团队集成和移动应用程序

由Anthropic开发的AI助手Claude已经收到了一个重大更新,包括引入了Teams集成和移动应用程序。

Teams集成使用户能够无缝地与团队协作使用Claude。这个功能使用户能够与同事分享和讨论他们的工作,使他们能够更容易地利用Claude在团队环境中的功能。Teams层提供的增加的使用量也确保用户可以与Claude进行更多对话,进一步提高他们的生产力和效率。

另一方面,移动应用程序为用户提供了在外出时访问Claude的能力。这对于需要在远离桌面时利用Claude功能的人来说特别有用。移动应用程序允许用户直接从手机传输图像到AI助手,无需在设备之间切换。

这些对Claude的更新是一个受欢迎的补充,因为它们解决了AI助手先前存在的一些局限性。Teams集成和移动应用程序功能使Claude更加可访问和多功能,允许用户在更广泛的场景中利用其功能。随着AI不断发展并融入我们的日常生活,这类更新对于确保该技术保持相关性和对各种用户和用例的实用性至关重要。

人工智能趋势:个性化人工智能体验的兴起

人工智能的世界正在快速发展,其中一个新兴趋势是个性化AI体验的兴起。随着AI系统变得更加先进,公司正将重点转移到创造独特和吸引人的用户体验上,这些体验可以更长时间地吸引用户的注意力。

Character AI这样的平台的兴起就是这一趋势的一个典型例子。这些平台允许用户与各种用户创建的角色进行互动,营造了比传统问答式AI助手更沉浸和吸引人的体验。

数据显示,这些个性化AI平台正吸引着更年轻的人群,近60%的Character AI受众在18-24岁之间。这表明下一代AI用户可能更倾向于提供更深层次个性化和互动的体验。

此外,用户参与模式的转变也值得注意。虽然像ChatGPT这样的平台在夏季月份的网络流量有所下降,可能是由于学术和专业使用的减少,但个性化AI平台则保持了更稳定的用户群。这表明这些平台可能更擅长长期保持用户注意力和参与度。

随着AI格局的不断发展,创造个性化和吸引人的用户体验的能力将成为决定AI公司成功的关键因素。像Character AI这样的平台的投资和增长表明,AI的未来可能在于开发更沉浸式和以用户为中心的体验,而不仅仅是专注于通用语言模型。

GPT-2模型混淆:猜测和不确定性

最近发布的一个名为"GPT2"的模型在AI社区引起了很多困惑和猜测。关于这种情况的一些关键点:

  • 这个模型被称为"GPT2",这令人困惑,因为它似乎与OpenAI在2019年发布的实际GPT-2模型无关。这种命名选择增加了困惑。

  • 关于这个新的"GPT2"模型到底是什么,有很多流传的理论。有人猜测它可能是原始GPT-2的微调版本,而其他人认为它可能是一个全新的架构。

  • OpenAI CEO Sam Altman关于这个"GPT2"模型的推文进一步引发了谣言和猜测,因为人们想知道这是否与OpenAI的工作有关。

  • 总的来说,围绕这个"GPT2"模型的起源、功能和目的存在很多不确定性。开发者没有提供明确的信息,导致AI社区出现了大量的理论和猜测。

如果没有来自创造者的更多细节,很难确定这个新的"GPT2"模型代表什么。它可能是一个实验系统,一个新推理引擎的测试,或者是别的什么。关于它的性质和与以前的GPT模型的关系的模糊性引发了AI领域的大量讨论和不确定性。

NIST发布人工智能风险管理框架:关键重点和考虑因素

美国国家标准与技术研究所(NIST)发布了NIST AI 600-1,这是一个专注于生成式AI管理的风险管理框架。这个框架旨在评估使用AI系统的相关风险,特别是在以下方面:

  1. CBRN信息风险:该框架强调聊天机器人可能促进与化学、生物、辐射和核(CBRN)武器相关信息的分析和传播,这可能增加恶意行为者进行研究的便利性。

  2. 虚构:该框架解决了用户由于响应的自信性或伴随的逻辑和引用而相信AI系统生成的虚假内容的风险,从而导致错误信息的传播。

  3. 有偏见和同质化的内容:该框架认识到AI系统可能生成有偏见或同质化的内容,这可能会产生负面的社会影响。

  4. 信息完整性:该框架关注AI系统可能破坏信息完整性的风险,可能导致虚假或误导性内容的传播。

  5. 环境影响:该框架考虑了AI系统的环境影响,包括它们的能源消耗和碳足迹。

NIST AI 600-1框架强调了主动风险管理的重要性,以及AI开发者和用户仔细评估部署AI系统的潜在风险的需要。它提供了关于如何识别、评估和减轻这些风险的指导,目标是确保AI技术的负责任和道德发展及使用。

通过解决这些关键领域,NIST框架旨在帮助组织和个人导航AI的复杂格局,并做出优先考虑安全、安全和社会福祉的明智决策。

Sanctuary AI和微软合作:加速人形机器人

加拿大人形机器人公司Sanctuary AI宣布与微软合作,加快通用机器人的发展。这项合作旨在利用大型语言模型(LLM)和微软的AI功能,将AI系统植根于物理世界。

Sanctuary AI的使命是创造世界上第一个类人智能。他们的Phoenix平台为这一努力奠定了基础。通过将LLM的力量与Sanctuary AI的Phoenix机器人相结合,这项合作旨在使这些系统能够理解和学习真实世界的经验。

这项合作将利用微软的AI控制系统来驱动Sanctuary AI的Phoenix机器人。这种集成预计将推动实现对通用机器人或体化AGI至关重要的大行为模型的进展。

Sanctuary AI最近发布的Phoenix第7代机器人展示了令人印象深刻的灵巧性和自主性。然而,该公司一直面临着难以引起其产品的热潮的挑战。与微软的这种合作可能会为Sanctuary AI的技术提供必要的推动力,使其进入聚光灯下。

将AI植根于通过体化系统的物理世界是实现通用人工智能(AGI)的关键一步。通过结合Sanctuary AI的机器人专业知识和微软的AI功能,这项合作旨在加快开发能够以更自然和直观的方式理解和与真实世界互动的人形机器人的发展。

随着AGI竞争的持续,Sanctuary AI和微软之间的这种合作突出了将物理和数字领域整合的重要性,以释放AI系统的全部潜力。这种合作可能为更先进和多功能的人形机器人铺平道路,这些机器人可以处理广泛的任务和应用。

结论

提供的内容中的关键要点如下:

  1. OpenAI和微软面临着8家报纸的诉讼,指控他们的AI聊天机器人非法使用了受版权保护的文章来训练他们的模型。这为未来AI在公共数据上的培训设立了重要的先例。

  2. Anthropic的AI助手Claude已经收到了更新,增加了Teams集成和移动应用程序等新功能。这有助于使Claude更具竞争力。

  3. Helen Toner在TED演讲中讨论了AI公司演变成类似社交媒体的平台的风险,这些平台更关注用户参与度而不是AI的有益应用。数据显示,一些AI聊天机器人已经拥有很高的用户参与度,尤其是在年轻人群中。

  4. 一个新的GPT-2模型被发布,引起了人们对其目的和与GPT-4的关系的困惑和猜测。OpenAI缺乏明确的沟通导致了许多无根据的谣言。

  5. NIST发布了一个生成式AI的风险管理框架,强调了这些模型被滥用于有害目的(如武器制造)的潜在风险。

  6. Sanctuary AI宣布与微软合作,加快通用机器人的发展,这可能是朝着体化AGI迈出的重要一步。

  7. 人们对当前大型语言模型是否代表了向AGI的有意义进展存在不同意见,一些专家认为它们并没有。

总之,内容涵盖了AI行业的广泛重要发展,从法律挑战到技术进步和安全考虑。总的主题是AI的快速发展,以及谨慎应对其带来的机遇和风险的必要性。

FAQ