Chrom256 commited on
Commit
57fa5f6
1 Parent(s): 17b6c1c

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +26 -14
README.md CHANGED
@@ -24,20 +24,32 @@ This gemma2 model was trained 2x faster with [Unsloth](https://github.com/unslot
24
 
25
  [<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
26
 
27
- 訓練用データ
28
- 以下のデータでInstruction finetuningを実施した
29
- - https://huggingface.co/datasets/llm-jp/magpie-sft-v1.0
30
- (Apache license 2.0)
31
- - https://huggingface.co/datasets/Aratako/Magpie-Tanuki-8B-annotated-96k
32
- (Apache license 2.0)
33
- データをサンプリングして活用
34
-
35
- 実行コード
36
- Google Colab用
37
- リンク先:https://colab.research.google.com/drive/10MWpy05Xw7UT5ySM2QpOdb2aKqwRjj8m?usp=sharing
38
- *リンク先のGoogle Colabノートを実行してください
39
-
40
- 以下に同じノートを同じコードを掲載します
 
 
 
 
 
 
 
 
 
 
 
 
41
  ```python
42
 
43
  !pip install -q transformers==4.46.3 accelerate bitsandbytes
 
24
 
25
  [<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
26
 
27
+ ## 概要
28
+ GoogleのGemma-2-9bをベースに、LoRAを使用して最適化した日本語対応モデルです。
29
+ 本モデルはコンペ提出用のものであり、その他の用途での使用を禁止します。
30
+
31
+ ## 訓練データ
32
+ 以下のデータセットを用いてInstruction-tuningを実施しました:
33
+ - [llm-jp/magpie-sft-v1.0](https://huggingface.co/datasets/llm-jp/magpie-sft-v1.0) (Apache License 2.0)
34
+ - [Aratako/Magpie-Tanuki-8B-annotated-96k](https://huggingface.co/datasets/Aratako/Magpie-Tanuki-8B-annotated-96k) (Apache License 2.0)
35
+
36
+ これらのデータセットから、品質と多様性を確保するためにサンプリングを行いました。
37
+
38
+ ## 使用方法
39
+ このモデルは、以下のGoogle Colabノートブックで簡単に実行できます:
40
+ [Google Colabで実行](https://colab.research.google.com/drive/10MWpy05Xw7UT5ySM2QpOdb2aKqwRjj8m?usp=sharing)
41
+
42
+ ノートブックには、必要なセットアップと推論用のコードが全て含まれています。
43
+
44
+ ## ライセンス
45
+ このモデルはApache 2.0ライセンスの下で公開されており、訓練データのライセンスと互換性があります。
46
+
47
+ ## 引用
48
+ このモデルを使用する場合は、以下の元データセットを引用してください:
49
+ - magpie-sft-v1.0
50
+ - Magpie-Tanuki-8B-annotated-96k
51
+
52
+ 以下にGoogle Colabノートブックと同じコードを掲載します
53
  ```python
54
 
55
  !pip install -q transformers==4.46.3 accelerate bitsandbytes