YuEの4bit量子化+onnx形式への変換モデルです。
ベースモデル
m-a-p/YuE-s1-7B-anneal-jp-kr-cot
上記のモデルを4bit量子化とonnx形式へ変換したモデルです。
性能劣化がありますのでご注意ください。
githubにて、このモデルを使用したツールを作成中です。
YuE-q4onnx-win
変換方法
Generate models using Model Builder
https://onnxruntime.ai/docs/genai/howto/build-model.html
適当なフォルダに仮想環境を作り、onnxruntime(optimum)とonnxruntime-genaiをインストールします。
私はwindows11+python 3.10で実行しました。
また、pwshを使用していますので、コマンドプロンプトの場合は適当に読み替えてください。
python -m venv venv
venv\Scripts\activate
# linuxなら↓
venv/Script/activate
pip install optimum[onnxruntime]
pip install --pre onnxruntime-genai
python -m onnxruntime_genai.models.builder -m m-a-p/YuE-s1-7B-anneal-jp-kr-cot -o ./onnx_models/YuE-s1-7B-anneal-jp-kr-cot-onnx-q4 -p int4 -e cuda -c ./models/
curl https://huggingface.co/m-a-p/YuE-s1-7B-anneal-jp-kr-cot/resolve/main/config.json?download=true > ./onnx_models/YuE-s1-7B-anneal-jp-kr-cot-onnx-q4/config.json
- Downloads last month
- 0
Inference Providers
NEW
This model is not currently available via any of the supported third-party Inference Providers, and
HF Inference API was unable to determine this model's library.
Model tree for siouni/YuE-s1-7B-anneal-jp-kr-cot-onnx-q4
Base model
m-a-p/YuE-s1-7B-anneal-jp-kr-cot