Skip to content

知图:AI驱动的电子书全内容知识发现

iamxiatian/knowpath

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

11 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

知路:AI驱动的电子书全内容知识发现

功能:

  • 解构:电子图书知识要素解构处理:自动结构出书的关键知识要素
  • 组织:
  • 问答:

开发环境搭建

安装poetry

采用阿里云的pip源,先安装pipx,再利用pipx安装poetry,最后通过pipx ensurepath将执行

文件加入环境变量

pip install pip -U
pip config set global.index-url https://mirrors.aliyun.com/pypi/simple/
pip install pipx
pip install virtualenv
pipx install poetry
pipx ensurepath

工程导入

可选步骤

如果系统默认的Python版本低于3.11,则需要执行以下命令:

conda create -n py311 python=3.11.1
conda activate py311
#which python
#poetry env use /path/to/your/python
poetry env use `which python`

安装依赖

GPU环境下安装:

poetry install --with gpu

CPU环境下安装:

poetry install --with cpu

vscode配置

查看env的位置,并在vscode中选择“Enter Interpreter path...”部分,输入如下命令显示的路径:

poetry env info --path

通过以上步骤即可完成虚拟环境的创建和选择。

常用操作

增加依赖包

如需添加包,必须通过审核后方可提交,包的添加方式,以pyhocon为例,如下:

poetry add pyhocon

对于torch,由于需要指定--index-url,在poetry中用以下方式实现:

注意:‌‌CUDA 12.0对应的PyTorch版本是CUDA 11.8。‌

poetry source add --priority=explicit pytorch-gpu https://download.pytorch.org/whl/cu118
#poetry source add --priority=explicit pytorch-gpu https://mirrors.aliyun.com/pytorch-wheels/cu118
poetry add --source pytorch-gpu torch torchvision torchaudio

删除依赖包

poetry add pyhocon

运行脚本

首次运行脚本之前,首先需要激活poetry的shell环境,在当前工程目录下执行:

poetry shell

然后通过poetry run python 执行执行脚本,例如要运行start.py,可以执行:

poetry run python start.py

单元测试覆盖率

用pip安装coveragepy后,执行:

coverage run -m unittest
coverage report

发布

python setup.py build_ext --inplace

LLM

模型下载

以Qwen2.5-7B-Instruct为例,相关信息可以访问: https://www.modelscope.cn/models/AI-ModelScope/Qwen2.5-7B-Instruct/summary

点击“模型文件”选项卡,右侧有“下载模型”,可以根据说明下载。以命令行下载为例:

pip install modelscope
modelscope download --model AI-ModelScope/Qwen2.5-7B-Instruct --local_dir './Qwen2.5-7B-Instruct'
modelscope download --model AI-ModelScope/Llama-3.2-3B-Instruct --local_dir './Llama-3.2-3B-Instruct'
modelscope download --model AI-ModelScope/bge-large-zh-v1.5  --local_dir './bge-large-zh-v1.5'
modelscope download --model AI-ModelScope/bge-large-en-v1.5  --local_dir './bge-large-en-v1.5'
modelscope download --model LLM-Research/Llama-3.2-11B-Vision-Instruct  --local_dir './Llama-3.2-11B-Vision-Instruct'

则在运行命令所在文件夹下,自动创建Qwen2.5-7B-Instruct目录,并存放模型信息。

vLLM推理服务

vLLM对Torch有强依赖,为避免包冲突,采用在线模式,单独安装一个虚拟环境,启动vllm。 vllm的服务不放置在pyproject.toml中管理。

vLLM安装如下(https://docs.vllm.ai/en/latest/getting_started/quickstart.html):

# (Recommended) Create a new conda environment.
conda create -n my_vllm python=3.10 -y
conda activate my_vllm

# Install vLLM with CUDA.
pip install vllm

# 指定显卡并启动
export CUDA_VISIBLE_DEVICES=6,7
vllm serve Qwen2.5-7B-Instruct --config conf/vllm.yaml

工具调用

About

知图:AI驱动的电子书全内容知识发现

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published