Update README.md
Browse files
README.md
CHANGED
@@ -2,7 +2,7 @@
|
|
2 |
license: apache-2.0
|
3 |
---
|
4 |
|
5 |
-
This is a 5.0 bpw exl2 quant of [Mixtral-8x7B-instruct-cosmopedia-japanese20k](https://huggingface.co/aixsatoshi/Mixtral-8x7B-instruct-cosmopedia-japanese20k) calibrated against [cosmopedia-japanese-20k](https://huggingface.co/datasets/aixsatoshi/cosmopedia-japanese-20k).
|
6 |
|
7 |
**モデル概要**
|
8 |
Mixtral-8x7B-instruct-cosmopedia-japanese20k モデルは、優れた性能を認められている Mixtral-8x7B-instruct の日本語ドメインへの適応を目的として設計されました。Mixtralはその高い能力にも関わらず、英語と日本語の推論結果には顕著な差があり、日本語のパフォーマンスが遅れをとっています。私たちの目標は、Mixtral の高度な論理的推論能力を損なうことなく、このモデルを日本語に適応させることでした。
|
|
|
2 |
license: apache-2.0
|
3 |
---
|
4 |
|
5 |
+
This is a 5.0 bpw exl2 quant of [Mixtral-8x7B-instruct-cosmopedia-japanese20k](https://huggingface.co/aixsatoshi/Mixtral-8x7B-instruct-cosmopedia-japanese20k) calibrated against [cosmopedia-japanese-20k](https://huggingface.co/datasets/aixsatoshi/cosmopedia-japanese-20k). The `measurement.json` is provided in the repo, for other quants.
|
6 |
|
7 |
**モデル概要**
|
8 |
Mixtral-8x7B-instruct-cosmopedia-japanese20k モデルは、優れた性能を認められている Mixtral-8x7B-instruct の日本語ドメインへの適応を目的として設計されました。Mixtralはその高い能力にも関わらず、英語と日本語の推論結果には顕著な差があり、日本語のパフォーマンスが遅れをとっています。私たちの目標は、Mixtral の高度な論理的推論能力を損なうことなく、このモデルを日本語に適応させることでした。
|