ysakuramoto commited on
Commit
c1ca95a
1 Parent(s): 02c9413

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +2 -2
README.md CHANGED
@@ -34,7 +34,7 @@ model = MobileBertForSequenceClassification.from_pretrained("ysakuramoto/mobileb
34
  |精度|86.4%|85.5%|86.4%|
35
  - 条件
36
  - ライブドアニュースコーパスのタイトルとカテゴリで学習・推論。
37
- - BERTモデルに、'cl-tohoku/bert-base-japanese-whole-word-masking'を利用。
38
  - 推論データ n=1,474。精度はAccuracy。
39
  - エポック数=10, lr=1e-4
40
  - 推論時の高速化として、枝刈り・量子化・jitコンパイルを実施。
@@ -49,7 +49,7 @@ model = MobileBertForSequenceClassification.from_pretrained("ysakuramoto/mobileb
49
  |精度|86.4%|82.5%|83.3%|
50
  - 条件
51
  - ストックーマークさんのwikipediaデータセットで学習・推論。(https://github.com/stockmarkteam/ner-wikipedia-dataset)
52
- - BERTモデルに、'cl-tohoku/bert-base-japanese-whole-word-masking'を利用。
53
  - 推論データ n=2,140。精度は完全一致のf-measure。
54
  - エポック数=10, lr=1e-4
55
  - 推論時の高速化として、枝刈り・量子化・jitコンパイルを実施。
 
34
  |精度|86.4%|85.5%|86.4%|
35
  - 条件
36
  - ライブドアニュースコーパスのタイトルとカテゴリで学習・推論。
37
+ - BERTモデルに、"cl-tohoku/bert-base-japanese-whole-word-masking"を利用。
38
  - 推論データ n=1,474。精度はAccuracy。
39
  - エポック数=10, lr=1e-4
40
  - 推論時の高速化として、枝刈り・量子化・jitコンパイルを実施。
 
49
  |精度|86.4%|82.5%|83.3%|
50
  - 条件
51
  - ストックーマークさんのwikipediaデータセットで学習・推論。(https://github.com/stockmarkteam/ner-wikipedia-dataset)
52
+ - BERTモデルに、"cl-tohoku/bert-base-japanese-whole-word-masking"を利用。
53
  - 推論データ n=2,140。精度は完全一致のf-measure。
54
  - エポック数=10, lr=1e-4
55
  - 推論時の高速化として、枝刈り・量子化・jitコンパイルを実施。