Создайте LLM-OS: Откройте доступ к AI-ассистентам с памятью, знаниями и инструментами
Узнайте, как построить LLM-OS: интерактивную платформу для создания AI-ассистентов с памятью, знаниями и инструментами. Раскройте потенциал крупных языковых моделей на AWS. Оптимизируйте свои AI-приложения с помощью этого всеобъемлющего руководства.
15 февраля 2025 г.

Раскройте силу AI-ассистентов с памятью, знаниями и инструментами! Узнайте, как создать собственного интеллектуального агента с помощью фреймворка Phidata, который теперь интегрируется с LLM-OS для масштабируемых и практичных решений на базе AI. Изучите преимущества этой передовой технологии и узнайте, как развернуть вашего AI-ассистента на AWS, не упоминая, что содержимое переработано из видео.
Запустите LLM-OS локально
Запустите LLM-OS локально
Чтобы запустить LLM-OS локально, выполните следующие шаги:
- Создайте виртуальное окружение Python, чтобы изолировать ваши зависимости.
- Установите необходимые пакеты, включая дополнительные библиотеки AWS для фреймворка FI-Data.
- Установите Docker Desktop, если вы еще этого не сделали.
- Создайте базу кода LLM-OS с помощью команды
fi workspace create
и выберите шаблон "LLM-OS" для клонирования. - Экспортируйте ваш ключ API OpenAI, так как вы будете использовать GPT-4 в качестве языковой модели.
- Экспортируйте ваш ключ API Anthropic для помощника по исследованиям (Exa).
- Запустите
fi workspace up
, чтобы запустить приложение LLM-OS, которое создаст необходимые контейнеры Docker для базы данных и приложения LLM-OS. - Откройте веб-браузер и перейдите по адресу
http://localhost:8501
, чтобы получить доступ к интерфейсу LLM-OS. - Введите имя пользователя и начните взаимодействовать с LLM-OS, который имеет доступ к калькулятору, файловой системе, веб-поиску и Yahoo Finance.
- Вы также можете добавить других членов команды помощников, таких как помощник по Python, аналитик данных или инвестиционный помощник, как показано в других примерах.
Чтобы протестировать LLM-OS, попробуйте добавить блог-пост в базу знаний и задать вопрос, например, "Что Сэм Алтман хотел бы знать?". LLM-OS будет искать в своей базе знаний и использовать генерацию, усиленную поиском, чтобы предоставить ответ.
Вы также можете протестировать калькулятор, спросив "Что такое 10 факториал?", и LLM-OS использует калькулятор, чтобы предоставить результат.
Локальная настройка содержит все в Docker, что упрощает управление и развертывание.
Запустите LLM-OS на AWS
Запустите LLM-OS на AWS
Чтобы запустить LLM-OS на AWS, выполните следующие шаги:
- Экспортируйте свои учетные данные AWS, установив AWS CLI и выполнив
aws configure
. - Добавьте ваши идентификаторы подсетей в файл
workspace_settings.py
. - Добавьте пароль для вашего приложения и базы данных в файл
workspace_settings.py
. - Создайте ваши ресурсы AWS, выполнив
fir workspace up --prod-infra-aws
. Это настроит необходимую инфраструктуру, включая группы безопасности, секреты, экземпляр базы данных, балансировщики нагрузки и кластер ECS. - После создания ресурсов вы получите DNS-адрес балансировщика нагрузки, который можно использовать для доступа к вашему LLM-OS, работающему на AWS.
- Вы также можете получить доступ к API LLM-OS, добавив
/api
к DNS-адресу балансировщика нагрузки. - Протестируйте LLM-OS, добавив блог-пост и задав ему вопросы. Вы также можете попробовать более сложные задачи, такие как сравнение акций с помощью инструментов Yahoo Finance.
Не забудьте проверить документацию Fi Data для получения более подробных инструкций и информации о том, как настраивать и расширять LLM-OS.
Протестируйте функциональность LLM-OS
Протестируйте функциональность LLM-OS
Теперь, когда у нас есть LLM-OS, работающий на AWS, давайте протестируем его функциональность. Мы выполним несколько задач, чтобы увидеть, как работает система.
Прежде всего, давайте добавим блог-пост в базу знаний, а затем зададим LLM-OS вопрос о его содержимом:
-
Добавьте новый блог-пост в базу знаний:
- LLM-OS обработает блог-пост и сохранит информацию в векторной базе данных.
-
Задайте вопрос: "Что Сэм Алтман хотел бы знать?"
- LLM-OS будет искать в своей базе знаний, извлекать соответствующую информацию и использовать генерацию, усиленную поиском, чтобы предоставить ответ.
Затем давайте протестируем функциональность калькулятора:
- Спросите LLM-OS: "Что такое 10 факториал?"
- LLM-OS использует свои вычислительные возможности, чтобы вычислить факториал и вернуть результат.
Наконец, давайте исследуем способность LLM-OS выполнять более сложные задачи:
- Попросите LLM-OS "Напишите сравнение между NVIDIA и AMD, используя данные Yahoo Finance".
- LLM-OS будет использовать свой доступ к данным Yahoo Finance, а также свои возможности генерации естественного языка, чтобы предоставить сравнительный анализ двух компаний.
Протестировав эти различные функциональные возможности, вы можете увидеть, как LLM-OS может служить мощным помощником ИИ, способным получать доступ к нескольким ресурсам и интегрировать их для решения сложных проблем. Бесшовная интеграция крупной языковой модели, базы знаний и внешних инструментов демонстрирует потенциал этой платформы для создания передовых приложений ИИ.
Заключение
Заключение
LLM OS (Large Language Model Operating System) - это мощная платформа, которая позволяет вам создавать помощников ИИ с долгосрочной памятью, контекстными знаниями и возможностью выполнять действия с помощью вызова функций. Интегрируя фреймворк Fi-data с LLM OS, вы можете создать масштабируемое и практичное решение для ваших потребностей в ИИ.
Основные особенности реализации LLM OS, рассмотренные в этом руководстве, следующие:
-
Использование GPT-4 в качестве крупной языковой модели: LLM OS использует GPT-4 в качестве базовой языковой модели, обеспечивая расширенные возможности обработки естественного языка.
-
Доступ к инструментам Software 1.0: LLM OS предоставляет помощнику ИИ доступ к различным программным инструментам, таким как калькулятор, файловая система и веб-поиск, чтобы улучшить его способность решать задачи.
-
Постоянная память и хранение знаний: LLM OS использует базу данных Postgres и PGVector для хранения памяти и знаний помощника ИИ, обеспечивая долгосрочное хранение и извлечение.
-
Возможности просмотра Интернета: Помощник ИИ может просматривать Интернет, чтобы собирать дополнительную информацию и расширять свою базу знаний.
-
Делегирование специализированным помощникам: LLM OS позволяет помощнику ИИ делегировать задачи другим специализированным помощникам, таким как помощник по Python или аналитик данных, для более целевых возможностей.
-
Развертывание на AWS: В этом руководстве показано, как развернуть LLM OS на AWS, используя инфраструктуру как код для настройки необходимых ресурсов, включая базу данных, балансировщики нагрузки и кластер ECS.
Следуя инструкциям, предоставленным в документации Fi-data, вы можете легко настроить и запустить LLM OS локально или на AWS, что позволит вам исследовать возможности этой мощной платформы и создавать собственных помощников ИИ.
Часто задаваемые вопросы
Часто задаваемые вопросы

