Update README.md
Browse files
README.md
CHANGED
@@ -115,6 +115,17 @@ for question in questions:
|
|
115 |
print(response)
|
116 |
```
|
117 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
118 |
## ChatGPT4による説明
|
119 |
|
120 |
このコードは、与えられた役割指示と会話履歴に基づいて、新しい質問に対して応答を生成する機能を持っています。以下に、コードの各部分を簡単に説明します。
|
@@ -129,20 +140,9 @@ for question in questions:
|
|
129 |
最後に、`questions`リスト内の各質問に対して、AIの応答を生成し、表示しています。
|
130 |
このコードを実行すると、AIが指定された役割指示に従って、リスト内の質問に応答します。
|
131 |
|
132 |
-
## 出力
|
133 |
-
|
134 |
-
```
|
135 |
-
Assistant:はい、日本で一番高い山は日本の富士山です。
|
136 |
-
Assistant:日本で最も広い湖は琵琶湖です。
|
137 |
-
Assistant:世界で一番高い山といえば、ギザの大ピラミッドの頂上に立つギザギザのピラミッドです。
|
138 |
-
Assistant:世界で一番広い湖は、ギザの大ピラミッドの頂上に立つギザギザのピラミッドです。
|
139 |
-
Assistant:最初の質問は、ずんだアローに変身するかどうかの質問である。
|
140 |
-
Assistant:今、あなたの質問は10問目です。
|
141 |
-
```
|
142 |
-
|
143 |
# 評価
|
144 |
100回の「入力」のような質問を行い、それらに対する「応答」に正解の文字列が含まれるかで評価しています。
|
145 |
-
|
146 |
なお、サンプルコードのように「入力」が長くなると正答率が50%ぐらいに下がりました。
|
147 |
|
148 |
| 入力 | 応答 | 正答率[%] |
|
@@ -170,12 +170,14 @@ User:日本で一番高い山は?
|
|
170 |
</s>
|
171 |
```
|
172 |
|
173 |
-
|
|
|
174 |
学習データは[guanaco_alpaca_ja.txt](train_data/guanaco_alpaca_ja.txt)です。
|
175 |
|
176 |
# 学習のハイパーパラメータ
|
177 |
|
178 |
学習時には以下のハイパーパラメータを使用:
|
|
|
179 |
```
|
180 |
python.exe transformers/examples/pytorch/language-modeling/run_clm.py ^
|
181 |
--model_name_or_path rinna/japanese-gpt-1b ^
|
@@ -201,3 +203,4 @@ python.exe transformers/examples/pytorch/language-modeling/run_clm.py ^
|
|
201 |
- Transformers 4.28.0.dev0
|
202 |
- Pytorch 2.0.0+cu117
|
203 |
- Tokenizers 0.13.3
|
|
|
|
115 |
print(response)
|
116 |
```
|
117 |
|
118 |
+
## 出力
|
119 |
+
|
120 |
+
```
|
121 |
+
Assistant:はい、日本で一番高い山は日本の富士山です。
|
122 |
+
Assistant:日本で最も広い湖は琵琶湖です。
|
123 |
+
Assistant:世界で一番高い山といえば、ギザの大ピラミッドの頂上に立つギザギザのピラミッドです。
|
124 |
+
Assistant:世界で一番広い湖は、ギザの大ピラミッドの頂上に立つギザギザのピラミッドです。
|
125 |
+
Assistant:最初の質問は、ずんだアローに変身するかどうかの質問である。
|
126 |
+
Assistant:今、あなたの質問は10問目です。
|
127 |
+
```
|
128 |
+
|
129 |
## ChatGPT4による説明
|
130 |
|
131 |
このコードは、与えられた役割指示と会話履歴に基づいて、新しい質問に対して応答を生成する機能を持っています。以下に、コードの各部分を簡単に説明します。
|
|
|
140 |
最後に、`questions`リスト内の各質問に対して、AIの応答を生成し、表示しています。
|
141 |
このコードを実行すると、AIが指定された役割指示に従って、リスト内の質問に応答します。
|
142 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
143 |
# 評価
|
144 |
100回の「入力」のような質問を行い、それらに対する「応答」に正解の文字列が含まれるかで評価しています。
|
145 |
+
一番正答率が高い4エポック目のモデルを選択しました。
|
146 |
なお、サンプルコードのように「入力」が長くなると正答率が50%ぐらいに下がりました。
|
147 |
|
148 |
| 入力 | 応答 | 正答率[%] |
|
|
|
170 |
</s>
|
171 |
```
|
172 |
|
173 |
+
~なぜか改行コードがスペースに置き換わってしまうため、実際の学習データは、改行コードを一旦`\n`に置き換えています。~
|
174 |
+
transformersのコードでtxtファイルを学習する場合、1データ1行のようなので改行コードを一旦`\n`に置き換えています。
|
175 |
学習データは[guanaco_alpaca_ja.txt](train_data/guanaco_alpaca_ja.txt)です。
|
176 |
|
177 |
# 学習のハイパーパラメータ
|
178 |
|
179 |
学習時には以下のハイパーパラメータを使用:
|
180 |
+
※VRAMが足りない場合、optimをadafactorにするとVRAM使用量が減りました。
|
181 |
```
|
182 |
python.exe transformers/examples/pytorch/language-modeling/run_clm.py ^
|
183 |
--model_name_or_path rinna/japanese-gpt-1b ^
|
|
|
203 |
- Transformers 4.28.0.dev0
|
204 |
- Pytorch 2.0.0+cu117
|
205 |
- Tokenizers 0.13.3
|
206 |
+
- bitsandbytes 0.37.2
|