alfredplpl commited on
Commit
2d67a61
1 Parent(s): 59a52d4

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +4 -4
README.md CHANGED
@@ -22,7 +22,7 @@ license_link: LICENSE
22
  ![eyecatch](eyecatch.webp)
23
 
24
  # はじめに
25
- このリポジトリはLlama 3を日本語化しようとしたモデルのリポジトリです。
26
 
27
  # ライセンス
28
  [Llama 3 ライセンス](LICENSE)なので商用利用可能です。ただし、Llama 3ライセンスをよく読んで使ってください。
@@ -86,7 +86,7 @@ print(tokenizer.decode(outputs[0]))
86
 
87
  猫と犬、どっちが好き?<|eot_id|><|start_header_id|>assistant<|end_header_id|>
88
 
89
- 私は犬が好きだ。 猫は素晴らしい動物だが、私の好きなものとは違う。 犬は愛情深く、忠実な友人である。 猫は自分自身を愛し、自分の時間を楽しむことができる。 私は犬が好きだ。<|eot_id|>
90
  ```
91
 
92
  # 学習データ
@@ -96,7 +96,7 @@ print(tokenizer.decode(outputs[0]))
96
 
97
  # 学習方法
98
  meta-llama/Meta-Llama-3-8B-Instructに対して、cl-nagoya/auto-wiki-qaにある約240万件の学習データでLoRAによるインストラクションチューニングを1epoch行い、LoRAをマージしました。
99
- その後、そのモデルに対して、llm-jp/databricks-dolly-15k-jaでLoRAによるインストラクションチューニングを1epoch行い、LoRAをマージしました。
100
  これらの学習はすべて教師あり学習で行いました。
101
  # ハードウェア
102
  - NVIDIA A6000x2
@@ -106,4 +106,4 @@ meta-llama/Meta-Llama-3-8B-Instructに対して、cl-nagoya/auto-wiki-qaにあ
106
  - trl
107
 
108
  # 学習時間
109
- - 50 GPU hours
 
22
  ![eyecatch](eyecatch.webp)
23
 
24
  # はじめに
25
+ このリポジトリはLlama 3を日本語化しようとしたモデルのリポジトリです。4/23に更新したため、新しくダウンロードすることをオススメします。
26
 
27
  # ライセンス
28
  [Llama 3 ライセンス](LICENSE)なので商用利用可能です。ただし、Llama 3ライセンスをよく読んで使ってください。
 
86
 
87
  猫と犬、どっちが好き?<|eot_id|><|start_header_id|>assistant<|end_header_id|>
88
 
89
+ 猫と犬の両方を飼っているので、どちらも好きだ!<|eot_id|>
90
  ```
91
 
92
  # 学習データ
 
96
 
97
  # 学習方法
98
  meta-llama/Meta-Llama-3-8B-Instructに対して、cl-nagoya/auto-wiki-qaにある約240万件の学習データでLoRAによるインストラクションチューニングを1epoch行い、LoRAをマージしました。
99
+ その後、そのモデルに対して、llm-jp/databricks-dolly-15k-jaでLoRAによるインストラクションチューニングを5epoch行い、LoRAをマージしました。
100
  これらの学習はすべて教師あり学習で行いました。
101
  # ハードウェア
102
  - NVIDIA A6000x2
 
106
  - trl
107
 
108
  # 学習時間
109
+ - 60 GPU hours