wangfan commited on
Commit
621ed63
1 Parent(s): 2cc6252
Files changed (1) hide show
  1. README.md +3 -3
README.md CHANGED
@@ -1,6 +1,6 @@
1
  在众多业务中,越来越频繁的使用预训练语言模型(Pre-trained Language Models),为了在金融场景下各任务中取得更好效果,我们发布了jdt-fin-roberta-wwm模型
2
 
3
- ## 模型&下载
4
  * `base模型`:12-layer, 768-hidden, 12-heads, 110M parameters
5
 
6
  | 模型简称 | 语料 | 京盘下载 |
@@ -8,7 +8,7 @@
8
  | fin-roberta-wwm | 金融语料 | Tensorflow()/Pytorch() |
9
  | fin-roberta-wwm-large | 金融语料 | todo |
10
 
11
- ## 快速加载
12
  依托于[Huggingface-Transformers](https://github.com/huggingface/transformers),可轻松调用以上模型。
13
  ```
14
  tokenizer = BertTokenizer.from_pretrained("MODEL_NAME")
@@ -22,7 +22,7 @@ model = BertModel.from_pretrained("MODEL_NAME")
22
  | fin-roberta-wwm | wangfan/jdt-fin-roberta-wwm |
23
  | fin-roberta-wwm-large | todo |
24
 
25
- ## 任务效果
26
  | Task | NER | 关系抽取 | 事件抽取 | 指标抽取 | 实体链接 |
27
  |:----:|:-- :|:------:|:-------:|:-------:|:------:|
28
  | Our |93.88| 79.02 | 91.99 | 94.28| 86.72 |
1
  在众多业务中,越来越频繁的使用预训练语言模型(Pre-trained Language Models),为了在金融场景下各任务中取得更好效果,我们发布了jdt-fin-roberta-wwm模型
2
 
3
+ #### 模型&下载
4
  * `base模型`:12-layer, 768-hidden, 12-heads, 110M parameters
5
 
6
  | 模型简称 | 语料 | 京盘下载 |
8
  | fin-roberta-wwm | 金融语料 | Tensorflow()/Pytorch() |
9
  | fin-roberta-wwm-large | 金融语料 | todo |
10
 
11
+ #### 快速加载
12
  依托于[Huggingface-Transformers](https://github.com/huggingface/transformers),可轻松调用以上模型。
13
  ```
14
  tokenizer = BertTokenizer.from_pretrained("MODEL_NAME")
22
  | fin-roberta-wwm | wangfan/jdt-fin-roberta-wwm |
23
  | fin-roberta-wwm-large | todo |
24
 
25
+ #### 任务效果
26
  | Task | NER | 关系抽取 | 事件抽取 | 指标抽取 | 实体链接 |
27
  |:----:|:-- :|:------:|:-------:|:-------:|:------:|
28
  | Our |93.88| 79.02 | 91.99 | 94.28| 86.72 |