Это код для работы с GPT моделью Meta-Llama-3-хB-Instruct в консоле.
Для корректной работы кода обязательно установите модель по этой ссылке: https://huggingface.co/meta-llama/Meta-Llama-3-8B-Instruct
Этот код создан в учебных целях и продолжает развиваться.
Вы можете свободно использовать его, изменять, предлагать улучшения и идеи.
🤍 Если код оказался полезен — дайте знать. Это мотивирует развивать дальше!
Хорошо работает на RTX 2060 Super (8 ГБ VRAM)
⚠ Python версия 3.9+
Cкачайте репозиторий удобным вам способом в Консоли или PowerShell:
git clone https://github.com/KD2D/Chat-for-Meta-Llama-Inst.git
Установка PyTorch с CUDA 12.1:
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
Установите остальные зависимости:
pip install -r requirements.txt
Запустите Up_Model.py
Спасибо за развитие популярности репозитория!
This is the code for working with the Meta-Llama-3-xB-Instruct GPT model in the console.
To ensure proper operation of the code, make sure to install the model from this link: https://huggingface.co/meta-llama/Meta-Llama-3-8B-Instruct
This code was created for educational purposes and is under active development.
You are free to use it, modify it, and suggest improvements and ideas.
🤍 If the code was useful — let me know. That motivates further development!
Works well on RTX 2060 Super (8 GB VRAM)
⚠ Python version 3.9+
Download the repository in any convenient way using Console or PowerShell:
git clone https://github.com/KD2D/Chat-for-Meta-Llama-Inst.git
Install PyTorch with CUDA 12.1:
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
Install the remaining dependencies:
pip install -r requirements.txt
Run Up_Model.py
Thanks for growing the popularity of the repository!