sonoisa commited on
Commit
8b20ea6
1 Parent(s): ba07167

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +1 -1
README.md CHANGED
@@ -13,7 +13,7 @@ This is a Japanese sentence-BERT model.
13
  日本語用Sentence-BERTモデル(バージョン2)です。
14
 
15
  [バージョン1](https://huggingface.co/sonoisa/sentence-bert-base-ja-mean-tokens)よりも良いロス関数である[MultipleNegativesRankingLoss](https://www.sbert.net/docs/package_reference/losses.html#multiplenegativesrankingloss)を用いて学習した改良版です。
16
- 手元の非公開データセットでは、バージョン1よりも1.5ポイントほど精度が高い結果が得られました。
17
 
18
  事前学習済みモデルとして[cl-tohoku/bert-base-japanese-v2](https://huggingface.co/cl-tohoku/bert-base-japanese-v2)を利用しました。
19
  従って、推論の実行にはfugashiとunidic-liteが必要です(pip install fugashi unidic-lite)。
 
13
  日本語用Sentence-BERTモデル(バージョン2)です。
14
 
15
  [バージョン1](https://huggingface.co/sonoisa/sentence-bert-base-ja-mean-tokens)よりも良いロス関数である[MultipleNegativesRankingLoss](https://www.sbert.net/docs/package_reference/losses.html#multiplenegativesrankingloss)を用いて学習した改良版です。
16
+ 手元の非公開データセットでは、バージョン1よりも1.5〜2ポイントほど精度が高い結果が得られました。
17
 
18
  事前学習済みモデルとして[cl-tohoku/bert-base-japanese-v2](https://huggingface.co/cl-tohoku/bert-base-japanese-v2)を利用しました。
19
  従って、推論の実行にはfugashiとunidic-liteが必要です(pip install fugashi unidic-lite)。