ysakuramoto
commited on
Commit
•
c1ca95a
1
Parent(s):
02c9413
Update README.md
Browse files
README.md
CHANGED
@@ -34,7 +34,7 @@ model = MobileBertForSequenceClassification.from_pretrained("ysakuramoto/mobileb
|
|
34 |
|精度|86.4%|85.5%|86.4%|
|
35 |
- 条件
|
36 |
- ライブドアニュースコーパスのタイトルとカテゴリで学習・推論。
|
37 |
-
- BERTモデルに、
|
38 |
- 推論データ n=1,474。精度はAccuracy。
|
39 |
- エポック数=10, lr=1e-4
|
40 |
- 推論時の高速化として、枝刈り・量子化・jitコンパイルを実施。
|
@@ -49,7 +49,7 @@ model = MobileBertForSequenceClassification.from_pretrained("ysakuramoto/mobileb
|
|
49 |
|精度|86.4%|82.5%|83.3%|
|
50 |
- 条件
|
51 |
- ストックーマークさんのwikipediaデータセットで学習・推論。(https://github.com/stockmarkteam/ner-wikipedia-dataset)
|
52 |
-
- BERTモデルに、
|
53 |
- 推論データ n=2,140。精度は完全一致のf-measure。
|
54 |
- エポック数=10, lr=1e-4
|
55 |
- 推論時の高速化として、枝刈り・量子化・jitコンパイルを実施。
|
|
|
34 |
|精度|86.4%|85.5%|86.4%|
|
35 |
- 条件
|
36 |
- ライブドアニュースコーパスのタイトルとカテゴリで学習・推論。
|
37 |
+
- BERTモデルに、"cl-tohoku/bert-base-japanese-whole-word-masking"を利用。
|
38 |
- 推論データ n=1,474。精度はAccuracy。
|
39 |
- エポック数=10, lr=1e-4
|
40 |
- 推論時の高速化として、枝刈り・量子化・jitコンパイルを実施。
|
|
|
49 |
|精度|86.4%|82.5%|83.3%|
|
50 |
- 条件
|
51 |
- ストックーマークさんのwikipediaデータセットで学習・推論。(https://github.com/stockmarkteam/ner-wikipedia-dataset)
|
52 |
+
- BERTモデルに、"cl-tohoku/bert-base-japanese-whole-word-masking"を利用。
|
53 |
- 推論データ n=2,140。精度は完全一致のf-measure。
|
54 |
- エポック数=10, lr=1e-4
|
55 |
- 推論時の高速化として、枝刈り・量子化・jitコンパイルを実施。
|