ChaosW commited on
Commit
79e2e4f
1 Parent(s): 2c6c6dd

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +1 -1
README.md CHANGED
@@ -31,7 +31,7 @@ widget:
31
 
32
  参考论文:[RoBERTa: A Robustly Optimized BERT Pretraining Approach](https://arxiv.org/abs/1907.11692)
33
 
34
- 为了得到一个中文版的autohome-roberta-base(110M),我们用autohome口碑板块语料库(1.2G)进行二次预训练。我们在MLM中使用了全词掩码(wwm)的方式。具体地,我们在预训练阶段中使用了[transformers框架](https://github.com/huggingface/transformers)大概花费了4张A100约4小时。
35
 
36
 
37
  ## 使用 Usage
 
31
 
32
  参考论文:[RoBERTa: A Robustly Optimized BERT Pretraining Approach](https://arxiv.org/abs/1907.11692)
33
 
34
+ 为了得到一个中文版的autohome-roberta-base(110M),我们用autohome口碑板块语料库(1.2G)进行二次预训练。模型初始化参数采用hfl/chinese-bert-wwm-ext的参数进行初始化,我们在MLM中使用了全词掩码(wwm)的方式。具体地,我们在预训练阶段中使用了[transformers框架](https://github.com/huggingface/transformers)大概花费了4张A100约4小时。
35
 
36
 
37
  ## 使用 Usage