sonoisa commited on
Commit
a230680
1 Parent(s): a3370d3
Files changed (1) hide show
  1. README.md +3 -3
README.md CHANGED
@@ -8,7 +8,7 @@ tags:
8
  - sentence-similarity
9
  ---
10
 
11
- **※重要: どうもモデルの中身がおかしいようなので近日中に正しいものに差し替えます。アップロードミスかもしれません・・・。**
12
 
13
 
14
  This is a Japanese sentence-BERT model.
@@ -18,8 +18,8 @@ This is a Japanese sentence-BERT model.
18
  [バージョン1](https://huggingface.co/sonoisa/sentence-bert-base-ja-mean-tokens)よりも良いロス関数である[MultipleNegativesRankingLoss](https://www.sbert.net/docs/package_reference/losses.html#multiplenegativesrankingloss)を用いて学習した改良版です。
19
  手元の非公開データセットでは、バージョン1よりも1.5〜2ポイントほど精度が高い結果が得られました。
20
 
21
- 事前学習済みモデルとして[cl-tohoku/bert-base-japanese-v2](https://huggingface.co/cl-tohoku/bert-base-japanese-v2)を利用しました。
22
- 従って、推論の実行にはfugashiとunidic-liteが必要です(pip install fugashi unidic-lite)。
23
 
24
 
25
  # 旧バージョンの解説
 
8
  - sentence-similarity
9
  ---
10
 
11
+ **※重要: 2021/12/26 モデルを修正しました。誤って精度が低いモデルを公開していたため、精度が高いモデルに差し替えました。**
12
 
13
 
14
  This is a Japanese sentence-BERT model.
 
18
  [バージョン1](https://huggingface.co/sonoisa/sentence-bert-base-ja-mean-tokens)よりも良いロス関数である[MultipleNegativesRankingLoss](https://www.sbert.net/docs/package_reference/losses.html#multiplenegativesrankingloss)を用いて学習した改良版です。
19
  手元の非公開データセットでは、バージョン1よりも1.5〜2ポイントほど精度が高い結果が得られました。
20
 
21
+ 事前学習済みモデルとして[cl-tohoku/bert-base-japanese-whole-word-masking](https://huggingface.co/cl-tohoku/bert-base-japanese-whole-word-masking)を利用しました。
22
+ 従って、推論の実行にはfugashiとipadicが必要です(pip install fugashi ipadic)。
23
 
24
 
25
  # 旧バージョンの解説