功能:
- 解构:电子图书知识要素解构处理:自动结构出书的关键知识要素
- 组织:
- 问答:
采用阿里云的pip源,先安装pipx,再利用pipx安装poetry,最后通过pipx ensurepath将执行
文件加入环境变量
pip install pip -U
pip config set global.index-url https://mirrors.aliyun.com/pypi/simple/
pip install pipx
pip install virtualenv
pipx install poetry
pipx ensurepath如果系统默认的Python版本低于3.11,则需要执行以下命令:
conda create -n py311 python=3.11.1
conda activate py311
#which python
#poetry env use /path/to/your/python
poetry env use `which python`GPU环境下安装:
poetry install --with gpuCPU环境下安装:
poetry install --with cpu查看env的位置,并在vscode中选择“Enter Interpreter path...”部分,输入如下命令显示的路径:
poetry env info --path通过以上步骤即可完成虚拟环境的创建和选择。
如需添加包,必须通过审核后方可提交,包的添加方式,以pyhocon为例,如下:
poetry add pyhocon对于torch,由于需要指定--index-url,在poetry中用以下方式实现:
注意:CUDA 12.0对应的PyTorch版本是CUDA 11.8。
poetry source add --priority=explicit pytorch-gpu https://download.pytorch.org/whl/cu118
#poetry source add --priority=explicit pytorch-gpu https://mirrors.aliyun.com/pytorch-wheels/cu118
poetry add --source pytorch-gpu torch torchvision torchaudiopoetry add pyhocon首次运行脚本之前,首先需要激活poetry的shell环境,在当前工程目录下执行:
poetry shell然后通过poetry run python 执行执行脚本,例如要运行start.py,可以执行:
poetry run python start.py用pip安装coveragepy后,执行:
coverage run -m unittest
coverage reportpython setup.py build_ext --inplace以Qwen2.5-7B-Instruct为例,相关信息可以访问: https://www.modelscope.cn/models/AI-ModelScope/Qwen2.5-7B-Instruct/summary
点击“模型文件”选项卡,右侧有“下载模型”,可以根据说明下载。以命令行下载为例:
pip install modelscope
modelscope download --model AI-ModelScope/Qwen2.5-7B-Instruct --local_dir './Qwen2.5-7B-Instruct'
modelscope download --model AI-ModelScope/Llama-3.2-3B-Instruct --local_dir './Llama-3.2-3B-Instruct'
modelscope download --model AI-ModelScope/bge-large-zh-v1.5 --local_dir './bge-large-zh-v1.5'
modelscope download --model AI-ModelScope/bge-large-en-v1.5 --local_dir './bge-large-en-v1.5'
modelscope download --model LLM-Research/Llama-3.2-11B-Vision-Instruct --local_dir './Llama-3.2-11B-Vision-Instruct'则在运行命令所在文件夹下,自动创建Qwen2.5-7B-Instruct目录,并存放模型信息。
vLLM对Torch有强依赖,为避免包冲突,采用在线模式,单独安装一个虚拟环境,启动vllm。 vllm的服务不放置在pyproject.toml中管理。
vLLM安装如下(https://docs.vllm.ai/en/latest/getting_started/quickstart.html):
# (Recommended) Create a new conda environment.
conda create -n my_vllm python=3.10 -y
conda activate my_vllm
# Install vLLM with CUDA.
pip install vllm
# 指定显卡并启动
export CUDA_VISIBLE_DEVICES=6,7
vllm serve Qwen2.5-7B-Instruct --config conf/vllm.yaml