wanng commited on
Commit
24c5743
1 Parent(s): 6d1fe4d

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +21 -3
README.md CHANGED
@@ -29,7 +29,7 @@ This is the fine-tuned version of the Chinese BERT model on several similarity d
29
 
30
  | 需求 Demand | 任务 Task | 系列 Series | 模型 Model | 参数 Parameter | 额外 Extra |
31
  | :----: | :----: | :----: | :----: | :----: | :----: |
32
- | 通用 General | 自然语言理解 NLU | 二郎神 Erlangshen | MegatronBert | 1.3B | Similarity |
33
 
34
  ## 模型信息 Model Information
35
 
@@ -66,9 +66,27 @@ print(torch.nn.functional.softmax(output.logits,dim=-1))
66
 
67
  ## 引用 Citation
68
 
69
- 如果您在您的工作中使用了我们的模型,可以引用我们的[论文](https://arxiv.org/abs/2209.02970):
70
 
71
- If you are using the resource for your work, please cite the our [paper](https://arxiv.org/abs/2209.02970):
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
72
 
73
  ```text
74
  @article{fengshenbang,
 
29
 
30
  | 需求 Demand | 任务 Task | 系列 Series | 模型 Model | 参数 Parameter | 额外 Extra |
31
  | :----: | :----: | :----: | :----: | :----: | :----: |
32
+ | 通用 General | 自然语言理解 NLU | 二郎神 Erlangshen | MegatronBert | 1.3B | 相似度 Similarity |
33
 
34
  ## 模型信息 Model Information
35
 
 
66
 
67
  ## 引用 Citation
68
 
69
+ 如果您在您的工作中使用了我们的模型,可以引用我们的对该模型的论文:
70
 
71
+ If you are using the resource for your work, please cite the our paper for this model:
72
+
73
+ ```text
74
+ @article{fengshenbang/erlangshen-megatronbert-sim,
75
+ author = {Junjie Wang and
76
+ Yuxiang Zhang and
77
+ Ping Yang and
78
+ Ruyi Gan},
79
+ title = {Towards No.1 in {CLUE} Semantic Matching Challenge: Pre-trained Language
80
+ Model Erlangshen with Propensity-Corrected Loss},
81
+ journal = {CoRR},
82
+ volume = {abs/2208.02959},
83
+ year = {2022}
84
+ }
85
+ ```
86
+
87
+ 如果您在您的工作中使用了我们的模型,也可以引用我们的[总论文](https://arxiv.org/abs/2209.02970):
88
+
89
+ If you are using the resource for your work, please cite the our [overview paper](https://arxiv.org/abs/2209.02970):
90
 
91
  ```text
92
  @article{fengshenbang,