Edit model card

AIBunCho/japanese-novel-gpt-j-6b

AI BunChoさんが公開しているjapanese-novel-gpt-j-6bのgguf変換版です。

注意:こちらはブランチで試用になります。llama.cpp本家にgptneox, gpt2が実装された時に、このggufファイルが使用できない可能性があります。

GitHubリポジトリの readme はこちら

Usage (試用)

git clone --branch mmnga-dev https://github.com/mmnga/llama.cpp.git
cd llama.cpp
make -j
./main -m 'aibuncho-japanese-novel-gpt-j-6b-q4_0.gguf' -n 128 -p '犬「吾輩は猫である。」猫「'  --top_p 0.9 --temp 0.7 --repeat-penalty 1.1

CUBLAS

LLAMA_CUBLAS=1 make -j
./main -m 'aibuncho-japanese-novel-gpt-j-6b-q4_0.gguf' -n 128 -p '犬「吾輩は猫である。」猫「' -ngl 24

従来のCPU実行

git clone --branch mmnga-dev https://github.com/mmnga/llama.cpp.git
cd llama.cpp
make -j gptj
./gptj -m 'aibuncho-japanese-novel-gpt-j-6b-q4_0.gguf' -n 128 -p '犬「吾輩は猫なのか」' --top_p 0.9 --temp 0.7 --repeat-penalty 1.2  -eos '</s>' -sep '[SEP]'
Downloads last month
3,128
GGUF
Model size
6.05B params
Architecture
gptj

2-bit

3-bit

4-bit

5-bit

6-bit

8-bit

16-bit

Inference Examples
Unable to determine this model's library. Check the docs .