Mizuiro-sakura commited on
Commit
54f1751
1 Parent(s): 65d1242

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +3 -2
README.md CHANGED
@@ -28,7 +28,7 @@ You could use this model for NER tasks.
28
 
29
  # How to use 使い方
30
  transformersおよびpytorch、sentencepiece、Juman++をインストールしてください。
31
- 以下のコードを実行することで、Question-Answeringタスクを解かせることができます。 please execute this code.
32
  ```python
33
  from transformers import AutoTokenizer,pipeline, AutoModelForTokenClassification
34
  tokenizer = AutoTokenizer.from_pretrained('Mizuiro-sakura/deberta-v2-base-japanese-finetuned-ner')
@@ -45,7 +45,7 @@ print(result)
45
  precision recall f1-score support
46
 
47
  その他の組織名 0.73 0.75 0.74 238
48
- イベント名 0.81 0.81 0.81 215
49
  人名 0.84 0.87 0.85 547
50
  地名 0.83 0.83 0.83 446
51
  政治的組織名 0.82 0.85 0.83 263
@@ -66,5 +66,6 @@ This is a Japanese DeBERTa V2 base model pre-trained on Japanese Wikipedia, the
66
 
67
  # Acknowledgments 謝辞
68
  モデルを公開してくださった京都大学黒橋研究室には感謝いたします。
 
69
  I would like to thank Kurohashi Lab at Kyoto University.
70
 
 
28
 
29
  # How to use 使い方
30
  transformersおよびpytorch、sentencepiece、Juman++をインストールしてください。
31
+ 以下のコードを実行することで、固有表現抽出タスクを解かせることができます。 please execute this code.
32
  ```python
33
  from transformers import AutoTokenizer,pipeline, AutoModelForTokenClassification
34
  tokenizer = AutoTokenizer.from_pretrained('Mizuiro-sakura/deberta-v2-base-japanese-finetuned-ner')
 
45
  precision recall f1-score support
46
 
47
  その他の組織名 0.73 0.75 0.74 238
48
+ イベント名 0.81 0.81 0.81 215
49
  人名 0.84 0.87 0.85 547
50
  地名 0.83 0.83 0.83 446
51
  政治的組織名 0.82 0.85 0.83 263
 
66
 
67
  # Acknowledgments 謝辞
68
  モデルを公開してくださった京都大学黒橋研究室には感謝いたします。
69
+
70
  I would like to thank Kurohashi Lab at Kyoto University.
71