Fix model
Browse files
README.md
CHANGED
@@ -8,7 +8,7 @@ tags:
|
|
8 |
- sentence-similarity
|
9 |
---
|
10 |
|
11 |
-
**※重要:
|
12 |
|
13 |
|
14 |
This is a Japanese sentence-BERT model.
|
@@ -18,8 +18,8 @@ This is a Japanese sentence-BERT model.
|
|
18 |
[バージョン1](https://huggingface.co/sonoisa/sentence-bert-base-ja-mean-tokens)よりも良いロス関数である[MultipleNegativesRankingLoss](https://www.sbert.net/docs/package_reference/losses.html#multiplenegativesrankingloss)を用いて学習した改良版です。
|
19 |
手元の非公開データセットでは、バージョン1よりも1.5〜2ポイントほど精度が高い結果が得られました。
|
20 |
|
21 |
-
事前学習済みモデルとして[cl-tohoku/bert-base-japanese-
|
22 |
-
従って、推論の実行にはfugashiと
|
23 |
|
24 |
|
25 |
# 旧バージョンの解説
|
|
|
8 |
- sentence-similarity
|
9 |
---
|
10 |
|
11 |
+
**※重要: 2021/12/26 モデルを修正しました。誤って精度が低いモデルを公開していたため、精度が高いモデルに差し替えました。**
|
12 |
|
13 |
|
14 |
This is a Japanese sentence-BERT model.
|
|
|
18 |
[バージョン1](https://huggingface.co/sonoisa/sentence-bert-base-ja-mean-tokens)よりも良いロス関数である[MultipleNegativesRankingLoss](https://www.sbert.net/docs/package_reference/losses.html#multiplenegativesrankingloss)を用いて学習した改良版です。
|
19 |
手元の非公開データセットでは、バージョン1よりも1.5〜2ポイントほど精度が高い結果が得られました。
|
20 |
|
21 |
+
事前学習済みモデルとして[cl-tohoku/bert-base-japanese-whole-word-masking](https://huggingface.co/cl-tohoku/bert-base-japanese-whole-word-masking)を利用しました。
|
22 |
+
従って、推論の実行にはfugashiとipadicが必要です(pip install fugashi ipadic)。
|
23 |
|
24 |
|
25 |
# 旧バージョンの解説
|