Edit model card

Swallow-MX-8x7b-NVE-v0.1に対し、

Mixtral-8x7B-Instruct-v0.1
Mixtral-8x7B-v0.1の差分をマージしたモデルです。

Swallow-MX-8x7b-NVE-v0.1 + 0.8*(Mixtral-8x7B-Instruct-v0.1 - Mixtral-8x7B-v0.1)

aixsatoshi/Swallow-MX-8x7b-NVE-chatvector-Mixtral-instruct のアウトプットの語彙がおかしい場合に使用してください。

日本語がより自然になります

context size 32k token使用可能な日本語対応ローカル用LLMとしては2024年3月時点では最高クラスの性能です

Downloads last month
125
Safetensors
Model size
46.7B params
Tensor type
BF16
·