inu-ai commited on
Commit
a7ecc92
1 Parent(s): 79ea26d

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +16 -13
README.md CHANGED
@@ -115,6 +115,17 @@ for question in questions:
115
  print(response)
116
  ```
117
 
 
 
 
 
 
 
 
 
 
 
 
118
  ## ChatGPT4による説明
119
 
120
  このコードは、与えられた役割指示と会話履歴に基づいて、新しい質問に対して応答を生成する機能を持っています。以下に、コードの各部分を簡単に説明します。
@@ -129,20 +140,9 @@ for question in questions:
129
  最後に、`questions`リスト内の各質問に対して、AIの応答を生成し、表示しています。
130
  このコードを実行すると、AIが指定された役割指示に従って、リスト内の質問に応答します。
131
 
132
- ## 出力
133
-
134
- ```
135
- Assistant:はい、日本で一番高い山は日本の富士山です。
136
- Assistant:日本で最も広い湖は琵琶湖です。
137
- Assistant:世界で一番高い山といえば、ギザの大ピラミッドの頂上に立つギザギザのピラミッドです。
138
- Assistant:世界で一番広い湖は、ギザの大ピラミッドの頂上に立つギザギザのピラミッドです。
139
- Assistant:最初の質問は、ずんだアローに変身するかどうかの質問である。
140
- Assistant:今、あなたの質問は10問目です。
141
- ```
142
-
143
  # 評価
144
  100回の「入力」のような質問を行い、それらに対する「応答」に正解の文字列が含まれるかで評価しています。
145
- 一番正答率が高いエポックのモデルを選択しました。
146
  なお、サンプルコードのように「入力」が長くなると正答率が50%ぐらいに下がりました。
147
 
148
  | 入力 | 応答 | 正答率[%] |
@@ -170,12 +170,14 @@ User:日本で一番高い山は?
170
  </s>
171
  ```
172
 
173
- なぜか改行コードがスペースに置き換わってしまうため、実際の学習データは、改行コードを一旦`\\n`に置き換えています。
 
174
  学習データは[guanaco_alpaca_ja.txt](train_data/guanaco_alpaca_ja.txt)です。
175
 
176
  # 学習のハイパーパラメータ
177
 
178
  学習時には以下のハイパーパラメータを使用:
 
179
  ```
180
  python.exe transformers/examples/pytorch/language-modeling/run_clm.py ^
181
  --model_name_or_path rinna/japanese-gpt-1b ^
@@ -201,3 +203,4 @@ python.exe transformers/examples/pytorch/language-modeling/run_clm.py ^
201
  - Transformers 4.28.0.dev0
202
  - Pytorch 2.0.0+cu117
203
  - Tokenizers 0.13.3
 
 
115
  print(response)
116
  ```
117
 
118
+ ## 出力
119
+
120
+ ```
121
+ Assistant:はい、日本で一番高い山は日本の富士山です。
122
+ Assistant:日本で最も広い湖は琵琶湖です。
123
+ Assistant:世界で一番高い山といえば、ギザの大ピラミッドの頂上に立つギザギザのピラミッドです。
124
+ Assistant:世界で一番広い湖は、ギザの大ピラミッドの頂上に立つギザギザのピラミッドです。
125
+ Assistant:最初の質問は、ずんだアローに変身するかどうかの質問である。
126
+ Assistant:今、あなたの質問は10問目です。
127
+ ```
128
+
129
  ## ChatGPT4による説明
130
 
131
  このコードは、与えられた役割指示と会話履歴に基づいて、新しい質問に対して応答を生成する機能を持っています。以下に、コードの各部分を簡単に説明します。
 
140
  最後に、`questions`リスト内の各質問に対して、AIの応答を生成し、表示しています。
141
  このコードを実行すると、AIが指定された役割指示に従って、リスト内の質問に応答します。
142
 
 
 
 
 
 
 
 
 
 
 
 
143
  # 評価
144
  100回の「入力」のような質問を行い、それらに対する「応答」に正解の文字列が含まれるかで評価しています。
145
+ 一番正答率が高い4エポック目のモデルを選択しました。
146
  なお、サンプルコードのように「入力」が長くなると正答率が50%ぐらいに下がりました。
147
 
148
  | 入力 | 応答 | 正答率[%] |
 
170
  </s>
171
  ```
172
 
173
+ ~なぜか改行コードがスペースに置き換わってしまうため、実際の学習データは、改行コードを一旦`\n`に置き換えています。~
174
+ transformersのコードでtxtファイルを学習する場合、1データ1行のようなので改行コードを一旦`\n`に置き換えています。
175
  学習データは[guanaco_alpaca_ja.txt](train_data/guanaco_alpaca_ja.txt)です。
176
 
177
  # 学習のハイパーパラメータ
178
 
179
  学習時には以下のハイパーパラメータを使用:
180
+ ※VRAMが足りない場合、optimをadafactorにするとVRAM使用量が減りました。
181
  ```
182
  python.exe transformers/examples/pytorch/language-modeling/run_clm.py ^
183
  --model_name_or_path rinna/japanese-gpt-1b ^
 
203
  - Transformers 4.28.0.dev0
204
  - Pytorch 2.0.0+cu117
205
  - Tokenizers 0.13.3
206
+ - bitsandbytes 0.37.2