Это простое десктопное приложение для локального чата с нейросетью. Все вычисления происходят на вашем компьютере, ничего не отправляется в интернет.
Проект разработан на C++ с использованием wxWidgets для интерфейса и llama.cpp для работы с нейросетью.
- Git
- Cmake (версия 3.15 или выше)
- Компилятор с поддержкой С++11 и выше
Библиотеки wxWidgets и llama.cpp уже включены в проект в папку library/, поэтому их не нужно устанавливать отдельно.
Как собрать и запустить
git clone https://github.com/originalini/Desktop-AI-Assistant.git
cd "Your file"
mkdir build
cd build
cmake ..
cmake --build . --config Release
Скачайте любую модель в формате .gguf (например, с Hugging Face).
Отредактируйте путь к модели:
Откройте файл source/UI_manager.cpp и в строке statusLoadModel = model->InitAI(...) укажите правильный путь к вашему файлу модели.
Исполняемый файл My_AI-Assistent.exe будет находиться в папке build/Release. Запустите его.
Important
Текущие инструкции и конфигурация сборки (CMakeLists.txt) предназначены в первую очередь для Windows.
Important
Примечание про GPU:Текущая конфигурация собирает проект для работы на CPU. Чтобы использовать ускорение на видеокарте (NVIDIA/AMD), необходимо пересобрать библиотеку llama.cpp с соответствующими флагами (например, -DLLAMA_CUDA=ON).
Подробные инструкции можно найти в официальном репозитории llama.cpp.