mmnga commited on
Commit
0f0072a
1 Parent(s): f3e0036

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +8 -3
README.md CHANGED
@@ -9,6 +9,7 @@ tags:
9
  [ELYZAさんが公開しているELYZA-japanese-Llama-2-7b-fast-instruct](https://huggingface.co/ELYZA/ELYZA-japanese-Llama-2-7b-fast-instruct)のggufフォーマット変換版です。
10
 
11
  他のモデルはこちら
 
12
  通常版: llama2に日本語のデータセットで学習したモデル
13
  [mmnga/ELYZA-japanese-Llama-2-7b-gguf](https://huggingface.co/mmnga/ELYZA-japanese-Llama-2-7b-gguf)
14
  [mmnga/ELYZA-japanese-Llama-2-7b-instruct-gguf](https://huggingface.co/mmnga/ELYZA-japanese-Llama-2-7b-instruct-gguf)
@@ -17,9 +18,13 @@ Fast版 日本語の語彙を追加してトークンコストを減らし、1.8
17
  [mmnga/ELYZA-japanese-Llama-2-7b-fast-gguf](https://huggingface.co/mmnga/ELYZA-japanese-Llama-2-7b-fast-gguf)
18
  [mmnga/ELYZA-japanese-Llama-2-7b-fast-instruct-gguf](https://huggingface.co/mmnga/ELYZA-japanese-Llama-2-7b-fast-instruct-gguf)
19
 
20
- llama.cppの本家の更新で2023-10-23前のfastモデルのggufが使用できなくなっています。
21
- fastモデルのggufを更新しましたので、お手数ですが再ダウンロードをお願いします。
22
- **モデルの変換コード**は[こちら](https://github.com/mmnga/llama.cpp/blob/mmnga-dev/convert-llama-hf-to-gguf_for_ex_vocab.py)
 
 
 
 
23
 
24
  ## Usage
25
 
 
9
  [ELYZAさんが公開しているELYZA-japanese-Llama-2-7b-fast-instruct](https://huggingface.co/ELYZA/ELYZA-japanese-Llama-2-7b-fast-instruct)のggufフォーマット変換版です。
10
 
11
  他のモデルはこちら
12
+
13
  通常版: llama2に日本語のデータセットで学習したモデル
14
  [mmnga/ELYZA-japanese-Llama-2-7b-gguf](https://huggingface.co/mmnga/ELYZA-japanese-Llama-2-7b-gguf)
15
  [mmnga/ELYZA-japanese-Llama-2-7b-instruct-gguf](https://huggingface.co/mmnga/ELYZA-japanese-Llama-2-7b-instruct-gguf)
 
18
  [mmnga/ELYZA-japanese-Llama-2-7b-fast-gguf](https://huggingface.co/mmnga/ELYZA-japanese-Llama-2-7b-fast-gguf)
19
  [mmnga/ELYZA-japanese-Llama-2-7b-fast-instruct-gguf](https://huggingface.co/mmnga/ELYZA-japanese-Llama-2-7b-fast-instruct-gguf)
20
 
21
+ Codellama版 GGUF
22
+ [mmnga/ELYZA-japanese-CodeLlama-7b-gguf](https://huggingface.co/mmnga/ELYZA-japanese-CodeLlama-7b-gguf)
23
+ [mmnga/ELYZA-japanese-CodeLlama-7b-instruct-gguf](https://huggingface.co/mmnga/ELYZA-japanese-CodeLlama-7b-instruct-gguf)
24
+
25
+ Codellama版 GPTQ
26
+ [mmnga/ELYZA-japanese-CodeLlama-7b-instruct-GPTQ-calib-ja-1k](https://huggingface.co/mmnga/ELYZA-japanese-CodeLlama-7b-instruct-GPTQ-calib-ja-1k)
27
+
28
 
29
  ## Usage
30