wangfan commited on
Commit
406b302
1 Parent(s): 9ea94d4
Files changed (1) hide show
  1. README.md +4 -3
README.md CHANGED
@@ -1,14 +1,14 @@
1
  在众多业务中,越来越频繁的使用预训练语言模型(Pre-trained Language Models),为了在金融场景下各任务中取得更好效果,我们发布了jdt-fin-roberta-wwm模型
2
 
3
- ## 模型
4
  * `base模型`:12-layer, 768-hidden, 12-heads, 110M parameters
5
 
6
  | 模型简称 | 语料 | 京盘下载 |
7
  | :----: | :---: |:----:|
8
- | fin-roberta-wwm | 金融语料 | - |
 
9
 
10
  ## 快速加载
11
- #### 使用Huggingface-Transformers
12
  依托于[Huggingface-Transformers](https://github.com/huggingface/transformers),可轻松调用以上模型。
13
  ```
14
  tokenizer = BertTokenizer.from_pretrained("MODEL_NAME")
@@ -20,4 +20,5 @@ model = BertModel.from_pretrained("MODEL_NAME")
20
  | 模型名 | MODEL_NAME |
21
  | - | - |
22
  | fin-roberta-wwm | wangfan/jdt-fin-roberta-wwm |
 
23
 
1
  在众多业务中,越来越频繁的使用预训练语言模型(Pre-trained Language Models),为了在金融场景下各任务中取得更好效果,我们发布了jdt-fin-roberta-wwm模型
2
 
3
+ ## 模型&下载
4
  * `base模型`:12-layer, 768-hidden, 12-heads, 110M parameters
5
 
6
  | 模型简称 | 语料 | 京盘下载 |
7
  | :----: | :---: |:----:|
8
+ | fin-roberta-wwm | 金融语料 | Tensorflow()/Pytorch() |
9
+ | fin-roberta-wwm-large | 金融语料 | todo |
10
 
11
  ## 快速加载
 
12
  依托于[Huggingface-Transformers](https://github.com/huggingface/transformers),可轻松调用以上模型。
13
  ```
14
  tokenizer = BertTokenizer.from_pretrained("MODEL_NAME")
20
  | 模型名 | MODEL_NAME |
21
  | - | - |
22
  | fin-roberta-wwm | wangfan/jdt-fin-roberta-wwm |
23
+ | fin-roberta-wwm-large | todo |
24