Datasets:
ArXiv:
License:
apache-2.0
text (string) |
---|
"粤港澳大湾区数字经济研究院(International Digital Economy Academy 简称“IDEA”)是一家面向人工智能(Artificial Intelligence,简称“AI”)、数字经济产业和前沿科技的国际化创新型研究机构,坐落于深圳市深港科技创新合作区内。" |
"IDEA正与MSR、Google Brain、DeepMind、OpenAI等同行者一起推动人类AI技术前沿的发展。IDEA的使命是立足社会需求,研发颠覆式创新技术并回馈社会,让更多的人从数字经济发展中获益。IDEA秉承共享共赢共生的开源开放精神,积极营造自由而富有激情的创新工作环境,聚集全世界最聪慧的大脑一起创造人类社会最需要的价值。我们坚持科技擎天,产业立地,相信最好的研究从需求中来,到需求中去,最终惠及广大企业和受众。" |
"IDEA目前已聚集一批包括院士、世界著名大学教授、世界知名开源系统发明人在内的国际一流技术专家,致力于在AI基础技术与开源系统、人工智能金融科技、区块链技术与机密计算、企业级AI系统、产业智能物联网与智能机器人等领域研发国际顶尖成果,并培育一批国际领先科技企业,带动深圳乃至大湾区万亿级数字经济产业发展。" |
"2021年11月22日,IDEA研究院创院理事长沈向洋在IDEA大会上正式宣布启动 “封神榜”大模型开源计划。目前,我们已经开源了6个系列共10个模型,包含4种模型结构,模型参数最大达到35亿。" |
"二郎神系列:以Encoder结构为主的双向语言系列模型,专注于解决各种自然语言理解任务。本系列中13亿参数的“Erlangshen-MegatronBert-1.3B”大模型,是目前中文领域内最大的开源Bert大模型。2021年11月及2022年1月,“二郎神”在中文语言理解权威评测基准FewCLUE 在新窗口查看和ZeroCLUE 在新窗口查看双料榜单上登顶,2022年3月在Hugging Face的单月下载量突破1k。同时IDEA研究院CCNL也开源了解决长文本分类任务的“Erlangshen-Longformer-110M”和“Erlangshen-Longformer-330M”。" |
"周文王系列:是IDEA研究院与追一科技联合开发的一系列新结构大模型。目前开源的13亿参数“Zhouwenwang-Unified-1.3B”大模型,是中文领域内可同时做LM和MLM任务的最大模型。" |
"余元系列:本系列模型主要面向医疗领域。拥有35亿参数的“Yuyuan-GPT2-3.5B”大模型,对英文医疗事实判断准确率接近90%。由 “Yuyuan-GPT2-3.5B”微调而来的问答模型“YuyuanQA-GPT2-3.5B”,在100个英文医疗问答任务上的Bleu值达到了0.35。" |
"闻仲系列:以Decoder结构为主的单向语言模型,是一系列强大的生成模型,目前开源了35亿参数的“Wenzhong-GPT2-3.5B”大模型。" |
"燃灯系列:本系列是以Transformer结构为主的编解码语言模型,主要解决通用任务,目前开源了7.7亿参数的“Randeng-MegatronT5-770M”大模型。" |
"比干系列:本系列主要面向各种纠错任务,目前开源了11亿参数的“Bigan-Transformer-XL-denoise-1.1B”大模型。" |
Only use for Demo
PretrainCorpusDemo
引用 Citation
如果您在您的工作中使用了我们的模型,可以引用我们的论文:
If you are using the resource for your work, please cite the our paper:
@article{fengshenbang,
author = {Jiaxing Zhang and Ruyi Gan and Junjie Wang and Yuxiang Zhang and Lin Zhang and Ping Yang and Xinyu Gao and Ziwei Wu and Xiaoqun Dong and Junqing He and Jianheng Zhuo and Qi Yang and Yongfeng Huang and Xiayu Li and Yanghan Wu and Junyu Lu and Xinyu Zhu and Weifeng Chen and Ting Han and Kunhao Pan and Rui Wang and Hao Wang and Xiaojun Wu and Zhongshen Zeng and Chongpei Chen},
title = {Fengshenbang 1.0: Being the Foundation of Chinese Cognitive Intelligence},
journal = {CoRR},
volume = {abs/2209.02970},
year = {2022}
}
也可以引用我们的网站:
You can also cite our website:
```text @misc{Fengshenbang-LM, title={Fengshenbang-LM}, author={IDEA-CCNL}, year={2021}, howpublished={\url{https://github.com/IDEA-CCNL/Fengshenbang-LM}}, }
- Downloads last month
- 9