aixsatoshi
commited on
Commit
•
764ca7f
1
Parent(s):
311cc5a
Update README.md
Browse files
README.md
CHANGED
@@ -9,7 +9,7 @@ Honyaku-7b-v2 is an improved version of its predecessor. This model exhibits enh
|
|
9 |
|
10 |
* Improved Multilingual Generation Accuracy: The model has increased precision in following multilingual generation tags.
|
11 |
* Quality-Reflective Translation: The translation quality of Honyaku-7b is strongly influenced by the pre-training of the base model. Consequently, the quality of translation varies in proportion to the training volume of the original language model.
|
12 |
-
* The primary purpose is to translate
|
13 |
* It has been fine-tuned up to 8k tokens, but based on the Base model's characteristics, it supports up to 4k tokens including the prompt.
|
14 |
|
15 |
**Cautions:**
|
@@ -26,7 +26,8 @@ Honyaku-7b-v2は、前バージョンの改良版です。このモデルは、
|
|
26 |
|
27 |
* 多言語生成の精度向上: モデルは、多言語生成タグに対する追従の精度が向上しました。
|
28 |
* 翻訳品質の反映: Honyaku-7bの翻訳品質は、ベースモデルの事前学習に強く影響されます。翻訳品質は、元の言語モデルの学習量に比例して変わります。
|
29 |
-
*
|
|
|
30 |
* 8k tokenまでファインチューニングしていますが、Base modelの特徴からprompt含めて4k tokenにまで対応とします。
|
31 |
|
32 |
**注意点:**
|
|
|
9 |
|
10 |
* Improved Multilingual Generation Accuracy: The model has increased precision in following multilingual generation tags.
|
11 |
* Quality-Reflective Translation: The translation quality of Honyaku-7b is strongly influenced by the pre-training of the base model. Consequently, the quality of translation varies in proportion to the training volume of the original language model.
|
12 |
+
* The primary purpose is to translate about 500 to several thousand tokens. Due to the characteristics of the Base model, translation into Japanese is the most stable.
|
13 |
* It has been fine-tuned up to 8k tokens, but based on the Base model's characteristics, it supports up to 4k tokens including the prompt.
|
14 |
|
15 |
**Cautions:**
|
|
|
26 |
|
27 |
* 多言語生成の精度向上: モデルは、多言語生成タグに対する追従の精度が向上しました。
|
28 |
* 翻訳品質の反映: Honyaku-7bの翻訳品質は、ベースモデルの事前学習に強く影響されます。翻訳品質は、元の言語モデルの学習量に比例して変わります。
|
29 |
+
* 500~数1000 tokenの翻訳を主目的としています。短すぎる文、長すぎる文で性能低下。
|
30 |
+
* Base modelの特徴から、日本語への翻訳が最も安定しています。
|
31 |
* 8k tokenまでファインチューニングしていますが、Base modelの特徴からprompt含めて4k tokenにまで対応とします。
|
32 |
|
33 |
**注意点:**
|