Replies: 2 comments 3 replies
-
还缺人吗,可以一起吗,同acmer |
Beta Was this translation helpful? Give feedback.
3 replies
-
看好噢,加油! |
Beta Was this translation helpful? Give feedback.
0 replies
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
Uh oh!
There was an error while loading. Please reload this page.
Uh oh!
There was an error while loading. Please reload this page.
-
EmoLLM-心理健康大模型
👋 Welcome!
仓库地址: https://github.com/aJupyter/EmoLLM
OPenXLab EmoLLM: https://openxlab.org.cn/apps/detail/jujimeizuo/EmoLLM
视频链接: https://www.bilibili.com/video/BV1N7421N76X/
最近规划:基于InternLM3打造RL+agent+更新新的模型+CT
介绍:
心理健康大模型(Mental Health Grand Model)是一个综合性的概念,它旨在全面理解和促进个体、群体乃至整个社会的心理健康状态。这个模型通常包含以下几个关键组成部分:
为了使我们的EmoLLM心理大模型有更好的表达效果,我们必须要有高质量的数据集。为了达到这一目标,我们决定利用四种强大的人工智能大模型:文心一言、通义千问、讯飞星火和智谱AI来蒸馏生成对话数据。此外,我们还将增强数据集的认知深度,通过加入少量自我认知数据集来提高模型的泛化能力。项目在ChatGLM3-6B、qwen_7b、internlm2_7b上均使用过数据集进行训练,并将internlm2_7b在OpenXLab上部署。
EmoLLM 是一个能够支持 理解用户-支持用户-帮助用户 心理健康辅导链路的心理健康大模型,由 InternLM2 指令微调而来,欢迎大家star~⭐⭐
OpenXLab线上使用
EmoLLM大模型上线部署OpenXLab后,我们可以直接使用进行心理咨询

微调
我们使用了xtuner微调和Lora微调两种形式,但是我们主要是对internlm2进行xtuner微调,Lora微调仅供兴趣拓展
XTuner微调
使用XTuner对模型进行微调,具体的python脚本文件可以详见文档,并且脚本文件中有详细注解。
Lora微调
使用 Transformers 的 Trainer 进行微调,具体详细脚本文件可以参考文档。
若有疑问也可以联系作者,欢迎大家纠错和提出ideas💡,一起参与项目开发
数据集
数据集使用四种功能强大的人工智能大模型来生成,现数据集已开源
特别鸣谢
人员
aJupyter@南开大学在读硕士、datawhale成员
jujimeizuo@江南大学硕士
Smiling&Weeping@哈尔滨工业大学(威海)在读本科生
Farewell@
Beta Was this translation helpful? Give feedback.
All reactions