readme
Browse files
README.md
CHANGED
@@ -1,6 +1,6 @@
|
|
1 |
在众多业务中,越来越频繁的使用预训练语言模型(Pre-trained Language Models),为了在金融场景下各任务中取得更好效果,我们发布了jdt-fin-roberta-wwm模型
|
2 |
|
3 |
-
|
4 |
* `base模型`:12-layer, 768-hidden, 12-heads, 110M parameters
|
5 |
|
6 |
| 模型简称 | 语料 | 京盘下载 |
|
@@ -8,7 +8,7 @@
|
|
8 |
| fin-roberta-wwm | 金融语料 | Tensorflow()/Pytorch() |
|
9 |
| fin-roberta-wwm-large | 金融语料 | todo |
|
10 |
|
11 |
-
|
12 |
依托于[Huggingface-Transformers](https://github.com/huggingface/transformers),可轻松调用以上模型。
|
13 |
```
|
14 |
tokenizer = BertTokenizer.from_pretrained("MODEL_NAME")
|
@@ -22,7 +22,7 @@ model = BertModel.from_pretrained("MODEL_NAME")
|
|
22 |
| fin-roberta-wwm | wangfan/jdt-fin-roberta-wwm |
|
23 |
| fin-roberta-wwm-large | todo |
|
24 |
|
25 |
-
|
26 |
| Task | NER | 关系抽取 | 事件抽取 | 指标抽取 | 实体链接 |
|
27 |
|:----:|:-- :|:------:|:-------:|:-------:|:------:|
|
28 |
| Our |93.88| 79.02 | 91.99 | 94.28| 86.72 |
|
1 |
在众多业务中,越来越频繁的使用预训练语言模型(Pre-trained Language Models),为了在金融场景下各任务中取得更好效果,我们发布了jdt-fin-roberta-wwm模型
|
2 |
|
3 |
+
#### 模型&下载
|
4 |
* `base模型`:12-layer, 768-hidden, 12-heads, 110M parameters
|
5 |
|
6 |
| 模型简称 | 语料 | 京盘下载 |
|
8 |
| fin-roberta-wwm | 金融语料 | Tensorflow()/Pytorch() |
|
9 |
| fin-roberta-wwm-large | 金融语料 | todo |
|
10 |
|
11 |
+
#### 快速加载
|
12 |
依托于[Huggingface-Transformers](https://github.com/huggingface/transformers),可轻松调用以上模型。
|
13 |
```
|
14 |
tokenizer = BertTokenizer.from_pretrained("MODEL_NAME")
|
22 |
| fin-roberta-wwm | wangfan/jdt-fin-roberta-wwm |
|
23 |
| fin-roberta-wwm-large | todo |
|
24 |
|
25 |
+
#### 任务效果
|
26 |
| Task | NER | 关系抽取 | 事件抽取 | 指标抽取 | 实体链接 |
|
27 |
|:----:|:-- :|:------:|:-------:|:-------:|:------:|
|
28 |
| Our |93.88| 79.02 | 91.99 | 94.28| 86.72 |
|