What is this?
Meta社の最新言語モデルMeta-Llama-3-70B-InstructをGGUFフォーマットに変換したものです。
EOSトークン変更のコミット(May 13)を反映させております。
また、llama.cppのpre-tokenization対応アップデート(#6920)についても反映したモデルとなっています。
imatrix dataset
日本語能力を重視し、日本語が多量に含まれるTFMC/imatrix-dataset-for-japanese-llmデータセットを使用しました。
なお、計算リソースの関係上imatrixの算出においてはQ8_0量子化モデルを使用しました。
Chat template
<|start_header_id|>system<|end_header_id|>\n\nここにsystemプロンプトを書きます<|eot_id|><|start_header_id|>user<|end_header_id|>\n\nここにMessageを書きます<|eot_id|><|start_header_id|>assistant<|end_header_id|>\n\n
Environment
Windows版llama.cpp-b3181およびllama.cpp-b3171同時リリースのconvert-hf-to-gguf.pyを使用して量子化作業を実施しました。
License
llama3 License
Developer
Meta
- Downloads last month
- 6,103
4-bit
Unable to determine this model's library. Check the
docs
.