Edit model card

GoGPT

基于多样性中文指令数据微调的中文BLOOM底座模型

img.png

训练第一轮足够了,后续第二轮和第三轮提升不大

  • 🚀多样性指令数据
  • 🚀筛选高质量中文数据
模型名字 参数量 模型地址
gogpt-560m 5.6亿参数 🤗golaxy/gogpt-560m
gogpt-3b 30亿参数 🤗golaxy/gogpt-3b-bloom
gogpt-7b 70亿参数 🤗golaxy/gogpt-7b-bloom

测试效果

img.png img.png img.png img.png img.png img.png

TODO

  • 进行RLFH训练
  • 后续加入中英平行语料

感谢

Citation

如果你在研究中使用了GoGPT,请按如下格式引用:

@misc{GoGPT,
  title={GoGPT: Training Medical GPT Model},
  author={Qiang Yan},
  year={2023},
  howpublished={\url{https://github.com/yanqiangmiffy/GoGPT}},
}
Downloads last month
1,897

Datasets used to train golaxy/gogpt-3b-bloom

Spaces using golaxy/gogpt-3b-bloom 14