LLM-OS 구축: 메모리, 지식 및 도구를 통해 AI 어시스턴트 잠금 해제

LLM-OS를 구축하는 방법을 발견하세요: 메모리, 지식 및 도구를 갖춘 AI 어시스턴트를 만들 수 있는 대화형 프레임워크입니다. AWS에서 대규모 언어 모델의 힘을 활용하세요. 이 종합 가이드를 통해 AI 앱을 최적화하세요.

2025년 2월 15일

party-gif

AI 어시스턴트의 힘을 발견하세요! 메모리, 지식, 도구로 무장하세요. Phidata 프레임워크를 사용하여 자신만의 지능형 에이전트를 구축하는 방법을 알아보세요. 이제 LLM-OS와 통합되어 확장 가능하고 실용적인 AI 솔루션을 제공합니다. 이 선진 기술의 이점을 탐색하고 AWS에 AI 어시스턴트를 배포하는 방법을 배우세요. 이 내용이 동영상에서 재사용되었다는 사실은 언급할 필요가 없습니다.

LLM-OS를 로컬에서 실행하기

LLM-OS를 로컬에서 실행하려면 다음 단계를 따르세요:

  1. 의존성을 격리하기 위해 Python 가상 환경을 만드세요.
  2. FI-Data 프레임워크의 선택적 AWS 라이브러리를 포함하여 필요한 패키지를 설치하세요.
  3. 아직 설치하지 않았다면 Docker Desktop을 설치하세요.
  4. fi workspace create 명령어를 사용하여 LLM-OS 코드베이스를 만들고, "LLM-OS" 템플릿을 선택하여 복제하세요.
  5. GPT-4를 언어 모델로 사용할 것이므로 OpenAI API 키를 내보내세요.
  6. 연구 보조원(Exa)을 위해 Anthropic API 키를 내보내세요.
  7. fi workspace up 명령어를 실행하여 LLM-OS 애플리케이션을 시작하면, 데이터베이스와 LLM-OS 애플리케이션에 필요한 Docker 컨테이너가 생성됩니다.
  8. 웹 브라우저를 열고 http://localhost:8501로 이동하여 LLM-OS 인터페이스에 액세스하세요.
  9. 사용자 이름을 입력하고 계산기, 파일 시스템, 웹 검색, Yahoo Finance에 액세스할 수 있는 LLM-OS와 상호 작용을 시작하세요.
  10. Python 보조원, 데이터 분석가, 투자 보조원과 같은 다른 보조원 팀 멤버를 추가할 수도 있습니다.

LLM-OS를 테스트하려면 지식 베이스에 블로그 게시물을 추가하고 "Sam Altman이 알고 싶었던 것은 무엇인가?"와 같은 질문을 해보세요. LLM-OS는 지식 베이스를 검색하고 검색 강화 생성을 사용하여 답변을 제공할 것입니다.

또한 "10 팩토리얼은 무엇인가?"라고 질문하여 계산기를 테스트할 수 있으며, LLM-OS는 계산기를 사용하여 결과를 제공할 것입니다.

로컬 설정은 모든 것을 Docker 내에 포함하므로 관리와 배포가 쉽습니다.

AWS에서 LLM-OS 실행하기

AWS에서 LLM-OS를 실행하려면 다음 단계를 따르세요:

  1. AWS CLI를 설치하고 aws configure를 실행하여 AWS 자격 증명을 내보내세요.
  2. workspace_settings.py 파일에 서브넷 ID를 추가하세요.
  3. workspace_settings.py 파일에 애플리케이션과 데이터베이스의 비밀번호를 추가하세요.
  4. fir workspace up --prod-infra-aws 명령어를 실행하여 AWS 리소스를 생성하세요. 이를 통해 필요한 인프라(보안 그룹, 비밀, 데이터베이스 인스턴스, 로드 밸런서, ECS 클러스터)가 설정됩니다.
  5. 리소스가 생성되면 로드 밸런서 DNS를 얻을 수 있으며, 이를 사용하여 AWS에서 실행 중인 LLM-OS에 액세스할 수 있습니다.
  6. /api를 로드 밸런서 DNS에 추가하여 LLM-OS API에 액세스할 수도 있습니다.
  7. 블로그 게시물을 추가하고 질문을 하여 LLM-OS를 테스트하세요. 또한 Yahoo Finance 도구를 사용하여 주식을 비교하는 등 더 복잡한 작업을 수행할 수 있습니다.

Fi Data 문서를 확인하여 더 자세한 지침과 LLM-OS를 사용자 정의하고 확장하는 방법에 대한 정보를 확인하세요.

LLM-OS 기능 테스트하기

AWS에서 LLM-OS를 실행했으니 이제 기능을 테스트해 보겠습니다. 몇 가지 작업을 수행하여 시스템의 작동 방식을 확인해 보겠습니다.

먼저 지식 베이스에 블로그 게시물을 추가하고 LLM-OS에 질문해 보겠습니다:

  1. 지식 베이스에 새 블로그 게시물 추가:

    • LLM-OS가 블로그 게시물을 처리하고 벡터 데이터베이스에 정보를 저장합니다.
  2. 질문 "Sam Altman이 알고 싶었던 것은 무엇인가?":

    • LLM-OS가 지식 베이스를 검색하고 관련 정보를 검색하여 검색 강화 생성을 사용하여 답변을 제공합니다.

다음으로 계산기 기능을 테스트해 보겠습니다:

  1. LLM-OS에 "10 팩토리얼은 무엇인가?"라고 질문:
    • LLM-OS가 계산기 기능을 사용하여 팩토리얼을 계산하고 결과를 반환합니다.

마지막으로 LLM-OS의 더 복잡한 작업 수행 능력을 탐색해 보겠습니다:

  1. LLM-OS에 "Yahoo Finance 데이터를 사용하여 NVIDIA와 AMD를 비교하는 내용을 작성하세요."라고 요청:
    • LLM-OS는 Yahoo Finance 데이터에 액세스하고 자연어 생성 기능을 활용하여 두 회사에 대한 비교 분석을 제공합니다.

이러한 다양한 기능을 테스트함으로써 LLM-OS가 여러 리소스에 액세스하고 통합하여 복잡한 문제를 해결할 수 있는 강력한 AI 보조원으로 활용될 수 있음을 확인할 수 있습니다. 대규모 언어 모델, 지식 베이스, 외부 도구의 원활한 통합은 이 프레임워크를 통해 구축할 수 있는 고급 AI 애플리케이션의 잠재력을 보여줍니다.

자주하는 질문