Transformers
PyTorch
Chinese
ZEN
chinese
wanng commited on
Commit
c0633a9
1 Parent(s): e7918cb

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +16 -3
README.md CHANGED
@@ -25,7 +25,7 @@ ZEN2 model, which uses N-gram to enhance text semantic and has 668M parameters,
25
 
26
  | 需求 Demand | 任务 Task | 系列 Series | 模型 Model | 参数 Parameter | 额外 Extra |
27
  | :----: | :----: | :----: | :----: | :----: | :----: |
28
- | 通用 General | 自然语言理解 NLU | 二郎神 Erlangshen | ZEN2 | 668M | Chinese |
29
 
30
  ## 模型信息 Model Information
31
 
@@ -85,9 +85,22 @@ You can get classification and extraction examples below.
85
 
86
  ## 引用 Citation
87
 
88
- 如果您在您的工作中使用了我们的模型,可以引用我们的[论文](https://arxiv.org/abs/2209.02970):
89
 
90
- If you are using the resource for your work, please cite the our [paper](https://arxiv.org/abs/2209.02970):
 
 
 
 
 
 
 
 
 
 
 
 
 
91
 
92
  ```text
93
  @article{fengshenbang,
 
25
 
26
  | 需求 Demand | 任务 Task | 系列 Series | 模型 Model | 参数 Parameter | 额外 Extra |
27
  | :----: | :----: | :----: | :----: | :----: | :----: |
28
+ | 通用 General | 自然语言理解 NLU | 二郎神 Erlangshen | ZEN2 | 668M | 中文-Chinese |
29
 
30
  ## 模型信息 Model Information
31
 
 
85
 
86
  ## 引用 Citation
87
 
88
+ 如果您在您的工作中使用了我们的模型,可以引用我们的对该模型的论文:
89
 
90
+ If you are using the resource for your work, please cite the our paper for this model:
91
+
92
+ ```text
93
+ @article{Sinovation2021ZEN2,
94
+ title="{ZEN 2.0: Continue Training and Adaption for N-gram Enhanced Text Encoders}",
95
+ author={Yan Song, Tong Zhang, Yonggang Wang, Kai-Fu Lee},
96
+ journal={arXiv preprint arXiv:2105.01279},
97
+ year={2021},
98
+ }
99
+ ```
100
+
101
+ 如果您在您的工作中使用了我们的模型,也可以引用我们的[总论文](https://arxiv.org/abs/2209.02970):
102
+
103
+ If you are using the resource for your work, please cite the our [overview paper](https://arxiv.org/abs/2209.02970):
104
 
105
  ```text
106
  @article{fengshenbang,