Update README.md
Browse files
README.md
CHANGED
@@ -24,20 +24,32 @@ This gemma2 model was trained 2x faster with [Unsloth](https://github.com/unslot
|
|
24 |
|
25 |
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
|
26 |
|
27 |
-
|
28 |
-
|
29 |
-
|
30 |
-
|
31 |
-
|
32 |
-
|
33 |
-
|
34 |
-
|
35 |
-
|
36 |
-
|
37 |
-
|
38 |
-
|
39 |
-
|
40 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
41 |
```python
|
42 |
|
43 |
!pip install -q transformers==4.46.3 accelerate bitsandbytes
|
|
|
24 |
|
25 |
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
|
26 |
|
27 |
+
## 概要
|
28 |
+
GoogleのGemma-2-9bをベースに、LoRAを使用して最適化した日本語対応モデルです。
|
29 |
+
本モデルはコンペ提出用のものであり、その他の用途での使用を禁止します。
|
30 |
+
|
31 |
+
## 訓練データ
|
32 |
+
以下のデータセットを用いてInstruction-tuningを実施しました:
|
33 |
+
- [llm-jp/magpie-sft-v1.0](https://huggingface.co/datasets/llm-jp/magpie-sft-v1.0) (Apache License 2.0)
|
34 |
+
- [Aratako/Magpie-Tanuki-8B-annotated-96k](https://huggingface.co/datasets/Aratako/Magpie-Tanuki-8B-annotated-96k) (Apache License 2.0)
|
35 |
+
|
36 |
+
これらのデータセットから、品質と多様性を確保するためにサンプリングを行いました。
|
37 |
+
|
38 |
+
## 使用方法
|
39 |
+
このモデルは、以下のGoogle Colabノートブックで簡単に実行できます:
|
40 |
+
[Google Colabで実行](https://colab.research.google.com/drive/10MWpy05Xw7UT5ySM2QpOdb2aKqwRjj8m?usp=sharing)
|
41 |
+
|
42 |
+
ノートブックには、必要なセットアップと推論用のコードが全て含まれています。
|
43 |
+
|
44 |
+
## ライセンス
|
45 |
+
このモデルはApache 2.0ライセンスの下で公開されており、訓練データのライセンスと互換性があります。
|
46 |
+
|
47 |
+
## 引用
|
48 |
+
このモデルを使用する場合は、以下の元データセットを引用してください:
|
49 |
+
- magpie-sft-v1.0
|
50 |
+
- Magpie-Tanuki-8B-annotated-96k
|
51 |
+
|
52 |
+
以下にGoogle Colabノートブックと同じコードを掲載します
|
53 |
```python
|
54 |
|
55 |
!pip install -q transformers==4.46.3 accelerate bitsandbytes
|