dahara1 commited on
Commit
9ab6d30
1 Parent(s): bb0fba0

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +8 -1
README.md CHANGED
@@ -9,6 +9,9 @@ language:
9
  ALMA-7B-Ja-V2-GPTQ-Ja-Enは日本語から英語、英語から日本語への機械翻訳を行うモデルです。
10
  ALMA-7B-Ja-V2-GPTQ-Ja-En is a machine translation model that uses ALMA's learning method to translate Japanese to English.
11
 
 
 
 
12
  ## サンプルコード
13
 
14
  Googleアカウントをお持ちの方は以下のColabを使用して動かす事が出来ます。
@@ -27,6 +30,7 @@ if you enconter error below.
27
  It's mean your memory is not enough. decrease your num_beams or token size.
28
  これはメモリ不足を意味します。num_beamsかtoken sizeを減らしてください。
29
 
 
30
  ## その他の版 Other Version
31
 
32
  - None quantized model [ALMA-7B-Ja-V2](https://huggingface.co/webbigdata/ALMA-7B-Ja-V2).
@@ -47,4 +51,7 @@ Please find more details in their [paper](https://arxiv.org/abs/2309.11674).
47
  archivePrefix={arXiv},
48
  primaryClass={cs.CL}
49
  }
50
- ```
 
 
 
 
9
  ALMA-7B-Ja-V2-GPTQ-Ja-Enは日本語から英語、英語から日本語への機械翻訳を行うモデルです。
10
  ALMA-7B-Ja-V2-GPTQ-Ja-En is a machine translation model that uses ALMA's learning method to translate Japanese to English.
11
 
12
+ 多少の性能を犠牲にして元のモデルをのサイズを小さくし、実行速度を早くし、使いやすくした版です。
13
+ This is a version of the original model that is smaller in size, faster to run, and easier to use, at the cost of some performance.  
14
+
15
  ## サンプルコード
16
 
17
  Googleアカウントをお持ちの方は以下のColabを使用して動かす事が出来ます。
 
30
  It's mean your memory is not enough. decrease your num_beams or token size.
31
  これはメモリ不足を意味します。num_beamsかtoken sizeを減らしてください。
32
 
33
+
34
  ## その他の版 Other Version
35
 
36
  - None quantized model [ALMA-7B-Ja-V2](https://huggingface.co/webbigdata/ALMA-7B-Ja-V2).
 
51
  archivePrefix={arXiv},
52
  primaryClass={cs.CL}
53
  }
54
+ ```
55
+
56
+ 量子化設定 gptq 4bit/128G
57
+ Quantization settings gptq 4bit/128G