alfredplpl
commited on
Commit
•
2d67a61
1
Parent(s):
59a52d4
Update README.md
Browse files
README.md
CHANGED
@@ -22,7 +22,7 @@ license_link: LICENSE
|
|
22 |
![eyecatch](eyecatch.webp)
|
23 |
|
24 |
# はじめに
|
25 |
-
このリポジトリはLlama 3を日本語化しようとしたモデルのリポジトリです。
|
26 |
|
27 |
# ライセンス
|
28 |
[Llama 3 ライセンス](LICENSE)なので商用利用可能です。ただし、Llama 3ライセンスをよく読んで使ってください。
|
@@ -86,7 +86,7 @@ print(tokenizer.decode(outputs[0]))
|
|
86 |
|
87 |
猫と犬、どっちが好き?<|eot_id|><|start_header_id|>assistant<|end_header_id|>
|
88 |
|
89 |
-
|
90 |
```
|
91 |
|
92 |
# 学習データ
|
@@ -96,7 +96,7 @@ print(tokenizer.decode(outputs[0]))
|
|
96 |
|
97 |
# 学習方法
|
98 |
meta-llama/Meta-Llama-3-8B-Instructに対して、cl-nagoya/auto-wiki-qaにある約240万件の学習データでLoRAによるインストラクションチューニングを1epoch行い、LoRAをマージしました。
|
99 |
-
その後、そのモデルに対して、llm-jp/databricks-dolly-15k-jaでLoRAによるインストラクションチューニングを
|
100 |
これらの学習はすべて教師あり学習で行いました。
|
101 |
# ハードウェア
|
102 |
- NVIDIA A6000x2
|
@@ -106,4 +106,4 @@ meta-llama/Meta-Llama-3-8B-Instructに対して、cl-nagoya/auto-wiki-qaにあ
|
|
106 |
- trl
|
107 |
|
108 |
# 学習時間
|
109 |
-
-
|
|
|
22 |
![eyecatch](eyecatch.webp)
|
23 |
|
24 |
# はじめに
|
25 |
+
このリポジトリはLlama 3を日本語化しようとしたモデルのリポジトリです。4/23に更新したため、新しくダウンロードすることをオススメします。
|
26 |
|
27 |
# ライセンス
|
28 |
[Llama 3 ライセンス](LICENSE)なので商用利用可能です。ただし、Llama 3ライセンスをよく読んで使ってください。
|
|
|
86 |
|
87 |
猫と犬、どっちが好き?<|eot_id|><|start_header_id|>assistant<|end_header_id|>
|
88 |
|
89 |
+
猫と犬の両方を飼っているので、どちらも好きだ!<|eot_id|>
|
90 |
```
|
91 |
|
92 |
# 学習データ
|
|
|
96 |
|
97 |
# 学習方法
|
98 |
meta-llama/Meta-Llama-3-8B-Instructに対して、cl-nagoya/auto-wiki-qaにある約240万件の学習データでLoRAによるインストラクションチューニングを1epoch行い、LoRAをマージしました。
|
99 |
+
その後、そのモデルに対して、llm-jp/databricks-dolly-15k-jaでLoRAによるインストラクションチューニングを5epoch行い、LoRAをマージしました。
|
100 |
これらの学習はすべて教師あり学習で行いました。
|
101 |
# ハードウェア
|
102 |
- NVIDIA A6000x2
|
|
|
106 |
- trl
|
107 |
|
108 |
# 学習時間
|
109 |
+
- 60 GPU hours
|