Qwen-Agent를 통해 강력한 AI 기능 활용하기: 함수 호출, 코드 인터프리터, 그리고 RAG

Qwen-Agent, 기능 호출, 코드 해석 및 검색 증강 생성을 위한 Qwen 2 LLM을 통합하는 오픈 소스 멀티 에이전트 프레임워크를 통해 강력한 AI 기능을 활용하세요. RAG 및 기본 장문 컨텍스트 모델을 능가하는 방법을 발견하세요.

2025년 2월 16일

party-gif

AI의 힘을 Qwen-Agent와 함께 unleash하세요. Qwen 2 대규모 언어 모델을 원활하게 통합하는 최첨단 멀티 에이전트 프레임워크입니다. 함수 호출, 코드 해석, 검색 강화 생성 등의 기능을 통해 AI 기반 프로젝트를 새로운 수준으로 끌어올릴 수 있습니다.

강력한 멀티 에이전트 프레임워크: 함수 호출, 코드 인터프리터 및 RAG

퀸 에이전트는 퀸 2 대규모 언어 모델 위에 구축된 새롭고 진화된 AI 에이전트 프레임워크입니다. 함수 호출, 코드 인터프리터, 검색 증강 생성(RAG), Chrome 확장 기능 등 여러 강력한 기능을 통합하고 있습니다.

이 프레임워크는 다른 멀티 에이전트 시스템을 능가할 수 있는 복잡한 AI 에이전트를 만드는 것을 목표로 합니다. 퀸 에이전트의 핵심 기능 중 하나는 큰 문맥 크기로 복잡한 작업을 처리할 수 있는 능력입니다. 이 프레임워크는 최대 100만 토큰의 문서를 이해할 수 있어 RAG와 네이티브 장문 모델의 성능을 능가했습니다.

퀸 에이전트는 8K 문맥 크기의 약한 채팅 모델에서 100만 토큰 문맥으로 대규모 언어 모델을 일반화하기 위해 4단계 접근법을 사용합니다:

  1. 초기 모델: 프레임워크는 8K 문맥 채팅 모델로 시작합니다.
  2. 에이전트 개발: 모델을 사용하여 100만 토큰 문맥을 처리할 수 있는 비교적 강력한 에이전트를 구축합니다.
  3. 데이터 합성: 에이전트를 사용하여 고품질의 미세 조정 데이터를 합성하며, 품질 보장을 위한 자동 필터링을 수행합니다.
  4. 모델 미세 조정: 합성 데이터를 사용하여 사전 학습된 모델을 미세 조정하여 강력한 100만 토큰 채팅봇을 만듭니다.

퀸 에이전트의 기능은 3단계의 복잡성 수준으로 구성됩니다:

  1. 검색 증강 생성(RAG): 100만 토큰 문맥을 처리하는 간단한 접근법으로, 문맥을 더 짧은 청크로 나누고 8K 문맥 내에서 가장 관련성 있는 청크를 유지합니다.
  2. 청크 단위 읽기: 각 512토큰 청크의 관련성을 확인하고, 가장 관련성 있는 청크를 검색하여 최종 답변을 생성하는 강력한 접근법입니다.
  3. 단계별 추론: 다중 홉 추론과 도구 호출 에이전트를 사용하여 여러 단계의 이해가 필요한 복잡한 질문에 답변할 수 있는 접근법입니다.

퀸 에이전트의 뛰어난 성능과 장문 작업 처리 능력은 강력한 오픈소스 AI 에이전트 프레임워크로 만들어 줍니다. 개발자들은 Pi 웹사이트에서 퀸 에이전트 프레임워크를 설치하고 제공된 튜토리얼을 따라 자신만의 에이전트를 배포하고 퀸 2 대규모 언어 모델을 활용할 수 있습니다.

새로운 긴 문맥 퀸 모델 학습을 위한 데이터 생성

퀸 에이전트는 새로운 장문 문맥 퀸 모델 학습을 위한 데이터 생성에 사용되었습니다. 이는 중요한 성과로, 수백만 토큰 시퀀스를 네이티브로 처리할 수 있는 대규모 언어 모델 연구에서 충분히 긴 미세 조정 데이터를 준비하는 것이 과제였습니다.

퀸 에이전트가 사용한 접근법은 4단계 프로세스로 구성됩니다:

  1. 초기 모델: 이 과정은 약한 8K 문맥 채팅 모델로 시작합니다.

  2. 에이전트 개발: 이 단계에서 퀸 에이전트는 100만 문맥을 처리할 수 있는 비교적 강력한 에이전트를 구축합니다.

  3. 데이터 합성: 그런 다음 에이전트를 사용하여 미세 조정 데이터를 합성하며, 품질 보장을 위한 자동 필터링을 수행합니다.

  4. 모델 미세 조정: 마지막으로 합성 데이터를 사용하여 사전 학습된 모델을 미세 조정하여 강력한 100만 문맥 채팅봇을 만듭니다.

이 접근법은 퀸 에이전트의 기능을 활용하여 대규모 언어 모델 학습을 위한 데이터 준비 과제를 극복합니다. 에이전트를 사용하여 고품질의 합성 데이터를 생성함으로써 연구자들은 최대 100만 토큰의 시퀀스를 효과적으로 처리할 수 있는 모델을 미세 조정할 수 있었습니다. 이는 RAG와 네이티브 장문 모델의 성능을 능가했습니다.

이 접근법의 성공은 퀸 에이전트 프레임워크의 힘과 복잡한 작업 및 장문 콘텐츠를 처리할 수 있는 고급 AI 시스템 개발 능력을 보여줍니다.

에이전트 구축: 3단계 복잡성

에이전트 구축은 3단계의 복잡성 수준으로 구성되며, 각 단계는 이전 단계 위에 구축됩니다:

  1. 검색 증강 생성:

    • 이는 100만 문맥 길이를 처리하는 간단한 접근법입니다.
    • RAG(검색 증강 생성) 알고리즘을 사용합니다.
    • 문맥을 512토큰 이하의 더 짧은 청크로 나눕니다.
    • 8K 문맥 내에서 가장 관련성 있는 청크만 유지합니다.
    • 3개의 하위 단계로 구성됩니다:
      • 명령과 정보 구분: 사용자 질문의 명령 부분과 정보 부분을 구분합니다.
      • 키워드 추출: 질문의 정보 부분에서 다국어 키워드를 도출합니다.
      • 관련 청크 검색: BM25 알고리즘을 사용하여 가장 관련성 있는 청크를 찾습니다.
  2. 청크 단위 읽기:

    • 이 접근법은 RAG 접근법의 한계를 해결합니다. RAG는 질문의 키워드와 일치하지 않는 관련 청크를 놓칠 수 있습니다.
    • 3단계로 구성됩니다:
      • 관련성 평가: 모델이 각 512토큰 청크의 질문 관련성을 확인합니다.
      • 청크 검색: 관련 문장을 사용하여 8K 문맥 내에서 가장 관련성 있는 청크를 BM25 알고리즘으로 검색합니다.
      • 답변 생성: 검색된 문맥을 기반으로 최종 답변을 생성합니다(RAG와 유사).
  3. 단계별 추론:

    • 이 접근법은 문서 기반 질문 답변에 사용됩니다. 여기서는 다중 홉 추론이 필요합니다.
    • 다양한 유형의 도구("LV3 에이전트에게 질문하기", "하위 질문", "메모리 업데이트" 등)를 가진 도구 호출 에이전트를 활용합니다.
    • 이 접근법을 통해 모델은 문맥을 100만 토큰까지 늘리고 다양한 기능의 품질을 향상시킬 수 있습니다.

실험 결과, 퀸 에이전트가 다른 RAG 기반 모델에 비해 문맥 길이와 성능을 크게 향상시킬 수 있음을 보여줍니다.

검색 보강 생성(RAG)

에이전트 구축의 첫 번째 단계는 검색 증강 생성(RAG) 접근법입니다. 이는 이전에 많이 볼 수 있었던 간단한 접근법입니다. 100만 문맥 길이를 처리하고 RAG 알고리즘을 사용합니다.

프로세스는 다음과 같습니다:

  1. 문맥 분할: 문맥을 512토큰 이하의 더 짧은 청크로 나눕니다.
  2. 관련 청크 유지: 8K 문맥 내에서 가장 관련성 있는 청크만 유지합니다.
  3. 명령 변환 분리: 사용자 질문의 명령 부분과 정보 부분을 구분하는 별도의 정보 명령을 사용합니다. 예를 들어 "2,000단어로 자세히 답변해 주세요. 자전거는 언제 발명되었나요?"를 프롬프트 구조로 변환합니다.
  4. 키워드 추출: 모델은 질문의 정보 부분에서 다국어 키워드를 도출할 수 있습니다.
  5. 관련 청크 검색: 전통적인 키워드 기반 검색 방법인 BM25 알고리즘을 사용하여 가장 관련성 있는 청크를 찾습니다.

RAG 접근법은 빠르지만, 질문의 키워드와 일치하지 않는 관련 청크를 놓칠 수 있습니다.

청크 단위 읽기

에이전트 구축의 두 번째 단계는 "청크 단위 읽기" 접근법입니다. 연구진은 초기 RAG(검색 증강 생성) 접근법이 매우 빨랐지만, 질문의 키워드와 일치하지 않는 관련 청크를 놓칠 수 있다는 것을 발견했습니다. 이를 해결하기 위해 3단계로 구성된 더 강력한 접근법을 도입했습니다:

  1. 관련성 평가: 각 512토큰 청크의 질문 관련성을 확인하는 모델.
  2. 청크 검색: 질문의 관련 문장을 사용하여 8K 문맥 내에서 가장 관련성 있는 청크를 BM25 알고리즘으로 검색합니다.
  3. 답변 생성: 검색된 문맥을 기반으로 최종 답변을 생성합니다(RAG와 유사).

이 청크 단위 읽기 접근법은 질문의 정확한 키워드와 일치하지 않더라도 관련 정보가 누락되지 않도록 더 철저하게 검토합니다. 각 청크를 개별적으로 확인하고 가장 관련성 있는 청크를 검색함으로써 에이전트는 문맥에 대한 더 포괄적인 이해를 바탕으로 고품질 답변을 생성할 수 있습니다.

도구 호출 에이전트를 통한 단계별 추론

퀸 에이전트 프레임워크에서 단계별 추론 접근법은 문서 기반 질문 답변 과제를 해결하기 위해 사용됩니다. 여기서는 모델이 다중 홉 추론을 수행하여 올바른 답변을 도출해야 합니다.

이 접근법의 핵심 측면은 다음과 같습니다:

  1. 다양한 도구 에이전트: 프레임워크는 "LV3 에이전트에게 질문하기", "하위 질문", "메모리 업데이트" 등 다양한 전문 도구 에이전트를 활용합니다. 이러한 에이전트를 호출하여 특정 추론 단계를 수행할 수 있습니다.

  2. 반복적 추론: 에이전트는 초기 질문으로 시작하여 하위 질문으로 분해합니다. 그런 다음 적절한 도구 에이전트를 호출하여 필요한 정보를 수집하고, 내부 메모리를 업데이트한 후 최종 답변을 생성합니다.

  3. **문맥

자주하는 질문