alac commited on
Commit
1efc07b
1 Parent(s): 4f4fced

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +1 -1
README.md CHANGED
@@ -2,7 +2,7 @@
2
  license: apache-2.0
3
  ---
4
 
5
- This is a 5.0 bpw exl2 quant of [Mixtral-8x7B-instruct-cosmopedia-japanese20k](https://huggingface.co/aixsatoshi/Mixtral-8x7B-instruct-cosmopedia-japanese20k) calibrated against [cosmopedia-japanese-20k](https://huggingface.co/datasets/aixsatoshi/cosmopedia-japanese-20k). Rhe `measurement.json` in the repo, for anyone interested in other quants.
6
 
7
  **モデル概要**
8
  Mixtral-8x7B-instruct-cosmopedia-japanese20k モデルは、優れた性能を認められている Mixtral-8x7B-instruct の日本語ドメインへの適応を目的として設計されました。Mixtralはその高い能力にも関わらず、英語と日本語の推論結果には顕著な差があり、日本語のパフォーマンスが遅れをとっています。私たちの目標は、Mixtral の高度な論理的推論能力を損なうことなく、このモデルを日本語に適応させることでした。
 
2
  license: apache-2.0
3
  ---
4
 
5
+ This is a 5.0 bpw exl2 quant of [Mixtral-8x7B-instruct-cosmopedia-japanese20k](https://huggingface.co/aixsatoshi/Mixtral-8x7B-instruct-cosmopedia-japanese20k) calibrated against [cosmopedia-japanese-20k](https://huggingface.co/datasets/aixsatoshi/cosmopedia-japanese-20k). The `measurement.json` is provided in the repo, for other quants.
6
 
7
  **モデル概要**
8
  Mixtral-8x7B-instruct-cosmopedia-japanese20k モデルは、優れた性能を認められている Mixtral-8x7B-instruct の日本語ドメインへの適応を目的として設計されました。Mixtralはその高い能力にも関わらず、英語と日本語の推論結果には顕著な差があり、日本語のパフォーマンスが遅れをとっています。私たちの目標は、Mixtral の高度な論理的推論能力を損なうことなく、このモデルを日本語に適応させることでした。