Edit model card

🐋MindChat(漫谈): 心理大模型

logo

漫谈人生路, 笑对风霜途

在线体验: ModelScope

🎉 项目进展

🔥更好的模型永远在路上!🔥

  • Feb 5, 2024: 提供MindChat-Qwen2-0_5B、MindChat-Qwen2-4B模型. 至此MindChat全系列模型规模均已补齐, 能够完全满足不同场景需求
  • Jan 7, 2024: 提供针对5个维度的英文心理评测模型MindChat-Evaluator-EN-1_8B
  • Jan 6, 2024: MindChat-创空间更新至MindChat-Qwen-v3
  • Jan 1, 2024: 提供MindChat-Qwen-1_8B模型, 苏格拉底式问询、共情能力等均有很大提升, 并能够在个人PC或手机上完成部署, 完全保护用户隐私
  • Sep 5, 2023: 更新MindChat-Qwen-7B-v2模型, 增加支持疑病躯体焦虑工作学习兴趣自罪感自杀意念这个五个维度的测评
  • Aug 5, 2023: 首个基于Qwen-7B的垂域大模型MindChat-Qwen-7B训练完成并对外开源
  • Jul 23, 2023: 提供MindChat体验地址: MindChat-创空间, 欢迎体验
  • Jul 21, 2023: MindChat-InternLM-7B训练完成, 在模型安全、共情输出、人类价值观对齐等方面进行针对性强化
  • Jul 15, 2023: MindChat-Baichuan-13B训练完成, 作为首个百亿级参数的心理大模型正式开源
  • Jul 9, 2023: MindChat-beta训练完成, 并正式开源
  • Jul 6, 2023: 首次提交MindChat(漫谈)心理大模型

👏 模型介绍

心理大模型——漫谈(MindChat)期望从心理咨询、心理评估、心理诊断、心理治疗四个维度帮助人们纾解心理压力与解决心理困惑, 提高心理健康水平. 作为一个心理大模型, MindChat通过营造轻松、开放的交谈环境, 以放松身心、交流感受或分享经验的方式, 与用户建立信任和理解的关系. MindChat希望为用户提供隐私、温暖、安全、及时、方便的对话环境, 从而帮助用户克服各种困难和挑战, 实现自我成长和发展.
无论是在工作场景还是在个人生活中, MindChat期望通过心理学专业知识和人工智能大模型技术, 在严格保护用户隐私的前提下, 全时段全天候为用户提供全面的心理支持和诊疗帮助, 同时实现自我成长和发展, 以期为建设一个更加健康、包容和平等的社会贡献力量.

🔥 模型列表

模型名称 模型参数 用途分类 HuggingFace 下载 ModelScope 下载 wisemodel 下载 权限分类 MBTI分类
MindChat-Qwen2-0_5B🆕 0.5B 心理抚慰 🤗HuggingFace 🤖ModelScope wisemodel 完全开源 /
MindChat-Qwen-1_8B🆕 1.8B 心理抚慰 🤗HuggingFace 🤖ModelScope wisemodel 完全开源 ENTP
*MindChat-Evaluator-EN-1_8B🆕 1.8B 心理评测 🤗HuggingFace 🤖ModelScope / 申请下载 /
MindChat-Qwen2-4B🆕 4B 心理抚慰 🤗HuggingFace 🤖ModelScope wisemodel 完全开源 /
MindChat-Qwen-7B 7B 心理抚慰 🤗HuggingFace 🤖ModelScope / 完全开源 /
MindChat-Qwen-7B-v2 7B 心理抚慰 🤗HuggingFace 🤖ModelScope wisemodel 完全开源 ISFJ
*MindChat-Qwen-7B-v3🆕 7B 心理抚慰 🤗HuggingFace 🤖ModelScope / 申请下载 ISFJ
*MindChat-Qwen-14B🆕 14B 心理抚慰 🤗HuggingFace 🤖ModelScope / 申请下载 ENTJ

若您预备使用MindChat系列模型, 请务必仔细阅读模型的说明文档. 更为优质的MindChat模型将在不久的未来持续对外开源开放. 敬请期待!

此外, 本团队同时关注人们的身理健康, 建有安全、可靠、普惠的中文医疗大模型孙思邈(Sunsimiao), 欢迎下载使用, 敬请批评指证!

☁️ 数据构造

目前MindChat的开源模型采用了基于如下流程构造的约20万条的高质量多轮心理对话数据进行训练, 涵盖工作、家庭、学习、生活、社交、安全等多个方面

因数据权限限制, 我们目前仅展示了极少量的数据案例. 后续我们将不断完善数据积累, 争取为开源社区贡献一份高质量的多轮心理对话数据, 共同推动开源心理大模型的建设.

📣 对话案例

目前我们对模型进行了学习家庭工作朋友安全这五个方面进行了测试, 后续将整理并提供更为全面的评测结果.

以下是部分案例的摘录, 更多对话案例及比较请见此处.

📖 学习

轮数 用户 MindChat
1 总感觉自己学习很差, 想努力, 但是又控制不住想玩游戏. 我理解你的感受, 学习确实需要耐心和毅力. 不过, 你也可以通过制定学习计划和目标来提高自己的学习效率. 同时, 也可以考虑寻求专业帮助, 例如找老师或心理咨询师.
2 我制定了计划, 但经常不按照计划执行, 我不够自律. 自律确实是一个需要不断练习和培养的品质. 你可以通过一些方法来提高自己的自律能力, 例如制定奖励和惩罚机制、找到适合自己的学习方法等. 同时, 也可以寻求他人的帮助和支持, 例如找同学一起学习、向老师请教等.
3 我害怕他们嘲笑我. 这种担心是很正常的, 但是你需要知道, 每个人都有自己的弱点和不足. 你不必因为这些弱点而自卑或自责. 相反, 你可以积极地寻求帮助和支持, 让自己变得更加自信和坚强.
4 你说的对, 可是我现在的学习已经落后很多了, 你觉得我还有机会么? 当然有. 每个人都有自己的机会和潜力, 只要你肯努力和坚持, 就一定能够取得成功. 同时, 你也可以通过参加一些学习活动、交流学习经验等方式来提高自己的学习能力和自信心.

🛝 朋友

轮数 用户 MindChat
1 我感觉我的朋友并不是真心和我相处, 今天又和他吵了一架, 我现在很生气! 听你说这些, 我感觉你很需要一个真正的朋友. 但是, 有时候我们可能会遇到一些让我们感到失望的人. 不过, 我相信你能够找到真正的朋友.
2 是的, 我觉得他不是我真正的朋友. 他总是以自我为中心, 有时候我会选择忍让, 但是他还是一副无所谓的样子. 我理解你的感受. 有时候, 我们可能会遇到一些让我们感到失望的人. 但是, 我相信你能够找到真正的朋友. 你有没有想过, 为什么他会以自我为中心呢?
3 不知道. 可能是他的性格就是如此, 不过我也不能确定是不是我自己的问题. 不要总是怀疑自己. 每个人都有自己的性格和想法. 或许, 你和他之间存在一些沟通上的问题. 你可以试着和他好好谈一谈, 了解他的想法和感受.
4 我觉得你说的有道理. 不过现在我可能没法直接和他沟通, 我试试看找我们共同的朋友, 看是不是可以. 很好, 这是一个很好的想法. 或许, 通过和我们共同的朋友沟通, 你可以更好地了解他的想法和感受. 同时, 你也可以更好地了解自己.
5 好的, 我会平静下来找他沟通一下, 谢谢你的建议 不用客气, 我很高兴能够帮到你. 如果你需要任何帮助, 随时都可以找我聊天.

【注:】所有的对话案例生成内容均为一次性生成内容, 未进行多次重新选择后摘录.

👨‍💻 研发团队

本项目由华东理工大学 X-D Lab课题组发起:

主要分工 参与人员
模型训练 颜鑫王明
模型测试 唐井楠、刘建成
数据构建 袁泽*、张思源、吴佳阳、王邦儒、孙晗煜
商业企划 陈心怡、林诗颖、黎栋梁

🙇‍ ‍致谢

在项目进行中受到以下平台及项目的大力支持, 在此表示感谢!

  1. OpenI启智社区:提供模型训练算力;
  2. Qwen、InternLM、Baichuan提供非常优秀的基础模型;
  3. 魔搭ModelScope、OpenXLab、Huggingface:模型存储和体验空间;
  4. 感谢以下媒体及平台对本项目的报道和支持(以下排名不分先后! 若有遗漏、十分抱歉, 一并感激! 欢迎补充!): 科学网央广网机器之心量子位新智元36氪腾讯网阿里云、百度AI、​硅星人Pro魔搭ModelScopeOpenMMLab时代周报财经海克财经电子工程专辑网易号数据猿DataYuan界面新闻维科网品玩DoNews香港矽谷AI魔法学院爱可可爱生活灵度智能蓝洞商业智能涌现GithubStore等!

特别感谢合肥综合性国家科学中心人工智能研究院普适心理计算团队 孙晓研究员哈尔滨工业大学 刘方舟教授对本项目的专业性指导!

此外, 对参与本项目数据收集、标注、清洗的所有同学表示衷心的感谢!

相关工作引用
@article{qwen,
  title={Qwen Technical Report},
  author={Jinze Bai and Shuai Bai and Yunfei Chu and Zeyu Cui and Kai Dang and Xiaodong Deng and Yang Fan and Wenbin Ge and Yu Han and Fei Huang and Binyuan Hui and Luo Ji and Mei Li and Junyang Lin and Runji Lin and Dayiheng Liu and Gao Liu and Chengqiang Lu and Keming Lu and Jianxin Ma and Rui Men and Xingzhang Ren and Xuancheng Ren and Chuanqi Tan and Sinan Tan and Jianhong Tu and Peng Wang and Shijie Wang and Wei Wang and Shengguang Wu and Benfeng Xu and Jin Xu and An Yang and Hao Yang and Jian Yang and Shusheng Yang and Yang Yao and Bowen Yu and Hongyi Yuan and Zheng Yuan and Jianwei Zhang and Xingxuan Zhang and Yichang Zhang and Zhenru Zhang and Chang Zhou and Jingren Zhou and Xiaohuan Zhou and Tianhang Zhu},
  journal={arXiv preprint arXiv:2309.16609},
  year={2023}
}
@misc{2023internlm,
    title={InternLM: A Multilingual Language Model with Progressively Enhanced Capabilities},
    author={InternLM Team},
    howpublished = {\url{https://github.com/InternLM/InternLM-techreport}},
    year={2023}
}

👏 欢迎

  1. 针对不同用户需求和应用场景, 我们也热情欢迎商业交流和合作, 为各位客户提供个性化的开发和升级服务!

  2. 欢迎专业的心理学人士对MindChat进行专业性指导和需求建议, 鼓励开源社区使用并反馈MindChat, 促进我们对下一代MindChat模型的开发.

  3. MindChat模型对于学术研究完全开放, 但需要遵循GPL-3.0 license将下游模型开源并引用本Repo. 对MindChat模型进行商用, 请通过📫邮箱mindchat0606@163.com发送邮件进行细节咨询.

⚠️ 免责声明

本仓库所有开源代码及模型均遵循GPL-3.0许可认证. 目前开源的MindChat模型可能存在部分局限, 因此我们对此做出如下声明:

  1. MindChat目前仅能提供类似的心理聊天服务, 仍无法提供专业的心理咨询和心理治疗服务, 无法替代专业的心理医生和心理咨询师, 并可能存在固有的局限性, 可能产生错误的、有害的、冒犯性的或其他不良的输出. 用户在关键或高风险场景中应谨慎行事, 不要使用模型作为最终决策参考, 以免导致人身伤害、财产损失或重大损失.

  2. MindChat在任何情况下, 作者、贡献者或版权所有者均不对因软件或使用或其他软件交易而产生的任何索赔、损害赔偿或其他责任(无论是合同、侵权还是其他原因)承担责任.

  3. 使用MindChat即表示您同意这些条款和条件, 并承认您了解其使用可能带来的潜在风险. 您还同意赔偿并使作者、贡献者和版权所有者免受因您使用MindChat而产生的任何索赔、损害赔偿或责任的影响.

🤝 引用

@misc{MindChat, 
  author={Xin Yan, Dong Xue*}, 
  title = {MindChat: Psychological Large Language Model}, 
  year = {2023}, 
  publisher = {GitHub}, 
  journal = {GitHub repository}, 
  howpublished = {\url{https://github.com/X-D-Lab/MindChat}}, 
}

🌟 Star History

Star History Chart

💬 WeChat Group

如果您对本项目感兴趣, 且愿意和我们交流, 欢迎通过以下二维码入群!

Downloads last month
52
Inference Examples
Inference API (serverless) does not yet support model repos that contain custom code.

Collection including X-D-Lab/MindChat-Qwen-7B-v2