--- license: other license_name: tongyi-qianwen license_link: >- https://huggingface.co/pfnet/nekomata-14b-pfn-qfin-inst-merge/blob/main/LICENSE language: - en - ja tags: - qwen datasets: - TFMC/imatrix-dataset-for-japanese-llm --- # pfnet-nekomata-14b-pfn-qfin-inst-merge-gguf [pfnetさんが公開しているnekomata-14b-pfn-qfin-inst-merge](https://huggingface.co/pfnet/nekomata-14b-pfn-qfin-inst-merge)のggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。 ## ライセンス tongyi-qianwenライセンスになります。 [ご使用前にライセンスをご確認ください。](https://huggingface.co/pfnet/nekomata-14b-pfn-qfin-inst-merge/blob/main/LICENSE) ## 他のモデル [mmnga/pfnet-nekomata-14b-pfn-qfin-gguf](https://huggingface.co/mmnga/pfnet-nekomata-14b-pfn-qfin-gguf) [mmnga/pfnet-nekomata-14b-pfn-qfin-inst-merge-gguf](https://huggingface.co/mmnga/pfnet-nekomata-14b-pfn-qfin-inst-merge-gguf) ## Usage ``` git clone https://github.com/ggerganov/llama.cpp.git cd llama.cpp make -j ./main -m 'pfnet-nekomata-14b-pfn-qfin-inst-merge-q4_0.gguf' -n 128 --temp 0.5 -p '### 指示:次の日本語を英語に翻訳してください。\n\n### 入力: 大規模言語モデル(だいきぼげんごモデル、英: large language model、LLM)は、多数のパラメータ(数千万から数十億)を持つ人工ニューラルネットワークで構成されるコンピュータ言語モデルで、膨大なラベルなしテキストを使用して自己教師あり学習または半教師あり学習によって訓練が行われる。 \n\n### 応答:' ```