AI 뉴스: 마이크로소프트의 새로운 AI 로봇, OpenAI 소송, GitHub Copilot 및 Claude 3 업데이트

이 AI 뉴스 요약에서는 마이크로소프트의 새로운 AI 로봇, 신문사들이 OpenAI를 고소한 사건, Claude 3의 업데이트, AI의 미래에 대한 TED 강연, NIST의 AI 위험 프레임워크, 마이크로소프트와 Sanctuary AI의 휴머노이드 로봇 협력 등을 다룹니다. 주요 주제에는 법적 과제, AI 안전, 로봇공학, 언어 모델의 진화 등이 포함됩니다.

2025년 2월 15일

party-gif

AI의 최신 발전 사항을 발견하세요. Microsoft의 새로운 AI 로봇부터 OpenAI의 법적 분쟁, GitHub Copilot 업데이트 등 다양한 내용을 다룹니다. 이 블로그 게시물은 가장 중요한 AI 뉴스와 발전 사항을 종합적으로 개괄하며, 이 급변하는 분야에서 앞서나갈 수 있는 통찰력을 제공합니다.

오픈 AI, 8개 신문사에 소송당해: 혐의 및 영향

알든 글로벌 캐피털이 소유한 8개의 일간지가 OpenAI와 마이크로소프트를 고소했습니다. 이들은 기술 기업들이 AI 채팅봇에 뉴스 기사를 불법적으로 사용했다고 주장합니다. 뉴욕 데일리 뉴스, 시카고 트리뷴, 오를랜도 센티널 등의 출판물은 채팅봇이 정기 구독 페이월 뒤에 있는 전체 기사를 정기적으로 표시했다고 주장합니다. 이로 인해 독자들이 구독료를 지불할 필요가 줄어들어 출판사의 구독료 및 콘텐츠 라이선스 수익이 감소했다고 합니다.

신문사들은 OpenAI와 마이크로소프트가 "정보를 수집하고 뉴스를 보도하는 데 수십억 달러를 투자"했지만, 기술 기업들이 "우리의 비용으로 자신들의 사업을 구축하기 위해 우리의 작품을 훼손할 수 없다"고 주장합니다. 이 고소장은 채팅봇이 종종 출처를 명확히 링크하지 않아 독자들이 구독료를 지불할 필요가 줄어들었다고 주장합니다.

이 소송은 AI 모델 학습에 저작권 콘텐츠를 사용하는 문제에 대한 논쟁을 강조합니다. 이 사건의 결과는 향후 소송에 대한 선례가 될 수 있습니다. 더 많은 콘텐츠 창작자와 출판사들이 AI 시스템에서 자신들의 작품 사용에 대한 보상을 요구할 수 있습니다. 이 사건의 해결은 AI 기업이 공개적으로 이용 가능한 정보를 활용할 때의 경계와 책임을 결정하는 데 중요할 것입니다.

클로드 AI 업데이트: 팀즈 통합 및 모바일 앱

앤트로픽이 개발한 AI 어시스턴트 클로드가 Teams 통합과 모바일 앱 출시를 포함한 중요한 업데이트를 받았습니다.

Teams 통합을 통해 사용자는 팀과 원활하게 협업할 수 있습니다. 이 기능을 통해 사용자는 동료들과 작업을 공유하고 토론할 수 있어 팀 환경에서 클로드의 기능을 더 잘 활용할 수 있습니다. Teams 티어가 제공하는 더 많은 사용 허용량으로 사용자는 클로드와 더 많은 대화를 할 수 있어 생산성과 효율성이 향상됩니다.

모바일 앱은 사용자가 언제 어디서나 클로드에 접근할 수 있게 해줍니다. 이는 데스크톱을 벗어나서도 클로드의 기능을 활용해야 하는 사용자에게 특히 유용합니다. 모바일 앱을 통해 사용자는 자신의 휴대폰에서 직접 이미지를 전송할 수 있어 기기 간 전환 없이 클로드의 시각 기능을 활용할 수 있습니다.

이러한 클로드 업데이트는 환영받을 만한 추가 기능입니다. 이는 이전에 존재했던 제한사항을 해결합니다. Teams 통합과 모바일 앱 기능은 클로드를 더 접근하기 쉽고 다양한 용도로 활용할 수 있게 만듭니다. AI가 계속 발전하고 일상생활에 더 통합되면서 이러한 업데이트는 다양한 사용자와 사용 사례에 맞게 기술을 관련성 있고 유용하게 유지하는 데 필수적입니다.

AI 트렌드: 개인화된 AI 경험의 부상

인공지능 세계는 빠르게 발전하고 있으며, 그 중 하나의 새로운 트렌드는 개인화된 AI 경험의 부상입니다. AI 시스템이 더 발전함에 따라 기업들은 사용자의 관심을 더 오래 유지할 수 있는 독특하고 매력적인 사용자 경험을 만드는 데 초점을 맞추고 있습니다.

Character AI와 같은 플랫폼의 부상이 이러한 트렌드의 대표적인 예입니다. 이러한 플랫폼은 사용자가 다양한 사용자 생성 캐릭터와 상호작용할 수 있게 하여, 전통적인 질문-답변 AI 어시스턴트보다 더 몰입감 있고 매력적인 경험을 제공합니다.

데이터에 따르면 이러한 개인화된 AI 플랫폼은 18-24세 연령대의 젊은 층을 끌어들이고 있습니다. 이는 다음 세대의 AI 사용자들이 더 깊은 수준의 개인화와 상호작용을 제공하는 경험에 더 끌릴 수 있음을 시사합니다.

또한 사용자 참여 패턴의 변화도 주목할 만합니다. ChatGPT와 같은 플랫폼은 학업 및 전문적 사용이 줄어든 여름 동안 웹 트래픽이 감소했지만, 개인화된 AI 플랫폼은 더 일관된 사용자 기반을 유지했습니다. 이는 이러한 플랫폼이 시간이 지남에 따라 사용자 관심과 참여를 더 잘 유지할 수 있음을 나타냅니다.

AI 환경이 계속 발전함에 따라 개인화되고 매력적인 사용자 경험을 만들 수 있는 능력이 AI 기업의 성공을 결정하는 핵심 요인이 될 것입니다. Character AI와 같은 플랫폼에 대한 투자와 성장은 미래의 AI가 일반 목적 언어 모델에 초점을 맞추는 것이 아니라 더 몰입적이고 사용자 중심적인 경험 개발에 있을 수 있음을 시사합니다.

GPT-2 모델 혼란: 추측과 불확실성

"GPT2"라는 이름의 새로운 모델 출시가 AI 커뮤니티에서 많은 혼란과 추측을 불러일으켰습니다. 이 상황에 대한 주요 사항은 다음과 같습니다:

  • "GPT2"라는 이름은 혼란스러운데, 이는 2019년 OpenAI가 출시한 실제 GPT-2 모델과 관련이 없어 보입니다. 이러한 명명 선택이 혼란을 가중시켰습니다.

  • 이 새로운 "GPT2" 모델이 실제로 무엇인지에 대해 많은 이론이 유통되고 있습니다. 일부는 이것이 원래 GPT-2의 fine-tuned 버전일 수 있다고 추측하고, 다른 이들은 완전히 새로운 아키텍처일 수 있다고 생각합니다.

  • OpenAI CEO Sam Altman이 이 "GPT2" 모델에 대해 트윗한 것이 소문과 추측을 더 부추겼습니다. 사람들은 이것이 OpenAI의 작업과 somehow 연관되어 있는지 궁금해합니다.

  • 전반적으로 이 "GPT2" 모델의 기원, 기능, 목적에 대한 불확실성이 많습니다. 개발자들의 명확한 정보 부족으로 인해 AI 커뮤니티에서 많은 이론과 추측이 난무하고 있습니다.

개발자들로부터 더 많은 세부 정보가 없다면 이 새로운 "GPT2" 모델이 무엇을 의미하는지 확실히 말하기 어렵습니다. 이것은 실험적인 시스템일 수도, 새로운 추론 엔진에 대한 테스트일 수도 있고 다른 무엇일 수도 있습니다. 이전 GPT 모델과의 관계와 본질에 대한 모호성이 AI 분야에서 많은 논의와 불확실성을 불러일으켰습니다.

NIST, AI 위험 관리 프레임워크 발표: 주요 초점 및 고려사항

국립표준기술연구소(NIST)는 생성 AI 관리에 초점을 맞춘 NIST AI 600-1 위험 관리 프레임워크를 발표했습니다. 이 프레임워크는 다음과 같은 영역에서 AI 시스템 사용과 관련된 위험을 평가하는 것을 목표로 합니다:

  1. CBRN 정보 위험: 이 프레임워크는 채팅봇이 화학, 생물학, 방사능, 핵(CBRN) 무기 관련 정보 분석 및 확산을 용이하게 함으로써 악의적 행위자의 연구를 증가시킬 수 있는 위험을 강조합니다.

  2. 허위 진술: 이 프레임워크는 AI 시스템의 자신감 있는 응답이나 논리와 인용으로 인해 사용자가 생성된 거짓 콘텐츠를 믿게 되어 잘못된 정보가 확산될 위험을 다룹니다.

  3. 편향되고 획일화된 콘텐츠: 이 프레임워크는 AI 시스템이 편향되거나 획일화된 콘텐츠를 생성할 수 있는 위험을 인식하며, 이는 부정적인 사회적 영향을 미칠 수 있습니다.

  4. 정보 무결성: 이 프레임워크는 AI 시스템이 정보의 무결성을 훼손하여 거짓 또는 오해의 소지가 있는 콘텐츠가 확산될 위험에 초점을 맞춥니다.

  5. 환경적 영향: 이 프레임워크는 AI 시스템의 에너지 소비와 탄소 발자국을 포함한 환경적 영향을 고려합니다.

NIST AI 600-1 프레임워크는 선제적 위험 관리의 중요성과 AI 개발자 및 사용자가 AI 시스템 배포와 관련된 잠재적 위험을 신중히 평가해야 할 필요성을 강조합니다. 이 프레임워크는 이러한 위험을 식별, 평가 및 완화하는 방법에 대한 지침을 제공하여 AI 기술의 책임감 있고 윤리적인 개발 및 사용을 보장하는 것을 목표로 합니다.

이러한 핵심 영역을 다루면서 NIST 프레임워크는 조직과 개인이 AI의 복잡한 환경을 탐색하고 안전, 보안 및 사회 복지를 우선시하는 정보에 입각한 결정을 내릴 수 있도록 돕고자 합니다.

Sanctuary AI와 Microsoft 협력: 휴머노이드 로봇공학 가속화

캐나다 휴머노이드 로봇 기업 Sanctuary AI가 마이크로소프트와 협력하여 범용 로봇 개발을 가속화하기로 했습니다. 이 파트너십은 대규모 언어 모델(LLM)과 마이크로소프트의 AI 기능을 활용하여 AI 시스템을 물리적 세계에 접목하는 것을 목표로 합니다.

Sanctuary AI는 세계 최초의 인간 수준 지능을 창조하는 것을 목표로 하고 있습니다. 그들의 Phoenix 플랫폼은 이 노력의 기반이 됩니다. LLM과 Sanctuary AI의 Phoenix 로봇을 결합함으로써 이 협력은 이러한 시스템이 실제 경험을 이해하고 학습할 수 있게 하고자 합니다.

이 파트너십은 마이크로소프트의 AI 제어 시스템을 Sanctuary AI의 Phoenix 로봇에 통합할 것입니다. 이 통합은 범용 로봇 또는 구현된 AGI 개발에 필수적인 대규모 행동 모델 발전을 추진할 것으로 예상됩니다.

Sanctuary AI의 최근 Phoenix Generation 7 로봇 출시는 뛰어난 재현성과 자율성을 보여주

자주하는 질문