1st commit
Browse files
README.md
ADDED
@@ -0,0 +1,23 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
在众多业务中,越来越频繁的使用预训练语言模型(Pre-trained Language Models),为了在金融场景下各任务中取得更好效果,我们发布了jdt-fin-roberta-wwm模型
|
2 |
+
|
3 |
+
## 模型
|
4 |
+
* `base模型`:12-layer, 768-hidden, 12-heads, 110M parameters
|
5 |
+
|
6 |
+
| 模型简称 | 语料 | 京盘下载 |
|
7 |
+
| - | - | - |
|
8 |
+
| fin-roberta-wwm | 金融语料 | - |
|
9 |
+
|
10 |
+
## 快速加载
|
11 |
+
### 使用Huggingface-Transformers
|
12 |
+
依托于[Huggingface-Transformers](https://github.com/huggingface/transformers),可轻松调用以上模型。
|
13 |
+
```
|
14 |
+
tokenizer = BertTokenizer.from_pretrained("MODEL_NAME")
|
15 |
+
model = BertModel.from_pretrained("MODEL_NAME")
|
16 |
+
```
|
17 |
+
**注意:本目录中的所有模型均使用BertTokenizer以及BertModel加载,请勿使用RobertaTokenizer/RobertaModel!**
|
18 |
+
其中`MODEL_NAME`对应列表如下:
|
19 |
+
|
20 |
+
| 模型名 | MODEL_NAME |
|
21 |
+
| - | - |
|
22 |
+
| fin-roberta-wwm | wangfan/jdt-fin-roberta-wwm |
|
23 |
+
|