Этот проект представляет собой простой пример реализации интеллектуального помощника, построенного на основе технологии GPT и использующего библиотеку LlamaIndex для обработки и индексации документов. Приложение использует архитектуру RAG для ответов на вопросы пользователя на основе проиндексированных документов.
- Индексация документов из заданной директории
- API-сервер для обработки запросов пользователей
- Веб-интерфейс для взаимодействия с помощником
-
Клонируйте репозиторий:
git clone https://github.com/romanvht/SimpleLlamaindexApp.git cd SimpleLlamaindexApp
-
Установите необходимые зависимости:
pip install -r requirements.txt
-
Создайте директорию
docs
и поместите в неё документы, которые нужно проиндексировать. -
Замените
<API_KEY>
в файле .env на ваш актуальный ключ API (удалите .template из названия файла).
Для индексации документов выполните:
python start_index.py
Это создаст индекс документов в директории ./storage
.
Для запуска API-сервера выполните:
python start_bot.py
Сервер будет доступен по адресу http://localhost:5000
.
Откройте файл index.html
в браузере для взаимодействия с помощником через веб-интерфейс.
Сервер предоставляет единственную конечную точку:
POST /api
- Тело запроса:
{"query": "Ваш вопрос здесь"}
- Ответ:
{"status": "success", "response": "Ответ помощника"}
- Тело запроса:
- Flask
- LlamaIndex
- OpenAI (через ProxyAPI)
- Проект использует модель GPT-4o-mini для генерации ответов.
- Для встраивания используется модель text-embedding-3-large.