mmnga's picture
Update README.md
9ccb71e verified
---
license: other
license_name: tongyi-qianwen
license_link: https://huggingface.co/pfnet/nekomata-14b-pfn-qfin/blob/main/LICENSE
language:
- en
- ja
tags:
- qwen
datasets:
- TFMC/imatrix-dataset-for-japanese-llm
---
# pfnet-nekomata-14b-pfn-qfin-gguf
[pfnetさんが公開しているnekomata-14b-pfn-qfin](https://huggingface.co/pfnet/nekomata-14b-pfn-qfin)のggufフォーマット変換版です。
imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。
## ライセンス
tongyi-qianwenライセンスになります。
[ご使用前にライセンスをご確認ください](https://huggingface.co/pfnet/nekomata-14b-pfn-qfin/blob/main/LICENSE)
## 他のモデル
[mmnga/pfnet-nekomata-14b-pfn-qfin-gguf](https://huggingface.co/mmnga/pfnet-nekomata-14b-pfn-qfin-gguf)
[mmnga/pfnet-nekomata-14b-pfn-qfin-inst-merge-gguf](https://huggingface.co/mmnga/pfnet-nekomata-14b-pfn-qfin-inst-merge-gguf)
## Usage
```
git clone https://github.com/ggerganov/llama.cpp.git
cd llama.cpp
make -j
./main -m 'pfnet-nekomata-14b-pfn-qfin-q4_0.gguf' -n 128 --temp 0.5 -p '### 指示:次の日本語を英語に翻訳してください。\n\n### 入力: 大規模言語モデル(だいきぼげんごモデル、英: large language model、LLM)は、多数のパラメータ(数千万から数十億)を持つ人工ニューラルネットワークで構成されるコンピュータ言語モデルで、膨大なラベルなしテキストを使用して自己教師あり学習または半教師あり学習によって訓練が行われる。 \n\n### 応答:'
```