PULSE-7bv5 / README.md
genggui001's picture
First model version
fd69df7
|
raw
history blame
4.05 kB
metadata
license: agpl-3.0
language:
  - zh
tags:
  - PULSE
  - llm

PULSE

Code License Model License

目录


开源模型

模型介绍

  • 大规模训练:PULSE模型在OpenChineseLLaMA 13B模型的基础上, 使用约4,000,000个医学领域和通用领域的SFT数据进行进一步微调。
  • 全面的医学自然语言处理任务:PULSE支持医学领域的各种自然语 言处理任务,包括健康教育、医师考试问题、报告解读、医疗记录结构化 以及模拟诊断和治疗。

局限性

由于模型参数量较小和自回归生成范式,尽管模型提供了有关疾病诊断和治疗的推理结果,但这些结果不能代替线下职业医生的建议和治疗方案。所有回答仅供参考,不应作为诊断或治疗的依据。我们强烈建议用户在需要诊断或治疗疾病时,寻求专业医生的帮助和建议。

Elo评测

model_name model_size ALL MedQA_Mainland PromptCBLUE detailedMedQA webMedQA
GPT4 220B*8(?) 1243.79 1118.20 1166.39 1122.20 1132.74
ChatGPT 175B(?) 1149.38 1083.05 1102.31 1098.38 1097.88
PULSE_14b 14B 1114.23 1003.55 1055.56 1074.79 1074.28
PULSE_7b 7B 1084.18 1047.35 1047.27 1029.37 1069.40
QiZhenGPT 13B 979.94 952.66 929.56 1076.41 1006.85
BianQue 6B 959.35 927.86 922.65 1050.22 1042.64
Med-ChatGLM 6B 869.54 989.59 928.77 882.08 856.66
BenTsao 7B 809.13 954.20 933.39 815.51 856.20
DoctorGLM 6B 790.47 923.54 914.10 851.04 863.35

推理

硬件要求

下表提供了一个batch size=1时本地部署PULSE进行推理所需的显存大小。

量化等级 加载模型
FP16 14GB

下载安装

  1. 下载本仓库内容至本地/远程服务器
git clone https://github.com/openmedlab/PULSE
cd PULSE
  1. 创建conda环境安装依赖
conda env create -f llm.yml
conda activate llm

其中torchtransformers版本不建议低于推荐版本。

使用示例

网页Demo

Gradio

python web_demo_gradio.py

命令行Demo

您可以运行仓库中的cli_demo.py来启动一个简单的命令行Demo:

python cli_demo.py

致谢

  • 上海人工智能实验室
  • 上海交通大学-清源研究院
  • 华东理工大学-自然语言处理与大数据挖掘实验室

开源协议

本项目所含代码采用Apache 2.0协议,模型权重采用GNU AGPL 3.0协议。如使用本项目所含模型及其修改版本提供服务产生误导性或有害性言论,造成不良影响,由服务提供方负责,与本项目无关。