metadata
license: other
license_name: tongyi-qianwen
license_link: https://huggingface.co/pfnet/nekomata-14b-pfn-qfin/blob/main/LICENSE
language:
- en
- ja
tags:
- qwen
datasets:
- TFMC/imatrix-dataset-for-japanese-llm
pfnet-nekomata-14b-pfn-qfin-gguf
pfnetさんが公開しているnekomata-14b-pfn-qfinのggufフォーマット変換版です。
imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。
ライセンス
tongyi-qianwenライセンスになります。
ご使用前にライセンスをご確認ください
他のモデル
mmnga/pfnet-nekomata-14b-pfn-qfin-gguf
mmnga/pfnet-nekomata-14b-pfn-qfin-inst-merge-gguf
Usage
git clone https://github.com/ggerganov/llama.cpp.git
cd llama.cpp
make -j
./main -m 'pfnet-nekomata-14b-pfn-qfin-q4_0.gguf' -n 128 --temp 0.5 -p '### 指示:次の日本語を英語に翻訳してください。\n\n### 入力: 大規模言語モデル(だいきぼげんごモデル、英: large language model、LLM)は、多数のパラメータ(数千万から数十億)を持つ人工ニューラルネットワークで構成されるコンピュータ言語モデルで、膨大なラベルなしテキストを使用して自己教師あり学習または半教師あり学習によって訓練が行われる。 \n\n### 応答:'