Holy-fox commited on
Commit
a59edd7
·
verified ·
1 Parent(s): 1e02c82

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +73 -3
README.md CHANGED
@@ -1,3 +1,73 @@
1
- ---
2
- license: mit
3
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: mit
3
+ language:
4
+ - ja
5
+ base_model:
6
+ - sbintuitions/sarashina2.2-3b-instruct-v0.1
7
+ ---
8
+ # DataPilot/sarashina2.2-3Bx8-moe
9
+
10
+ **DataPilot/sarashina2.2-3Bx8-moe** は、[sbintuitions/sarashina2.2-3b-instruct-v0.1](https://huggingface.co/sbintuitions/sarashina2.2-3b-instruct-v0.1)をベースに、mergekit-moeを用いて8つの専門モデルを統合したMixture of Experts(MoE)型の言語モデルです。各専門モデルが持つ強みを活用し、シングルモデルを超えた多彩で柔軟な応答生成が可能です。
11
+
12
+ ## 特徴
13
+
14
+ - **Mixture of Experts (MoE)**: 8つのモデルを統合し、各領域に特化した知識と能力を発揮。
15
+ - **高品質な日本語応答生成**: インストラクション形式のプロンプトに適した優れた対話生成性能。
16
+ - **簡単な導入と利用**: Hugging Face Transformersに対応した簡単な使用方法。
17
+
18
+ ## モデル構成
19
+
20
+ - **ベースモデル**: [sbintuitions/sarashina2.2-3b-instruct-v0.1](https://huggingface.co/sbintuitions/sarashina2.2-3b-instruct-v0.1)
21
+ - **構築方法**: [mergekit-moe](https://github.com/arcee-ai/mergekit/blob/main/docs/moe.md) を使用
22
+ - **データ型**: bfloat16(効率と精度のバランスに優れる)
23
+
24
+ ## 使用例
25
+
26
+ 以下は本モデルを利用したテキスト生成の簡単な例です。
27
+
28
+ ```python
29
+ import torch
30
+ from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline, set_seed
31
+
32
+ # モデルのロード
33
+ model_name = "DataPilot/sarashina2.2-3Bx8-moe"
34
+ model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.bfloat16, device_map="auto")
35
+ tokenizer = AutoTokenizer.from_pretrained(model_name)
36
+ chat_pipeline = pipeline("text-generation", model=model, tokenizer=tokenizer)
37
+ set_seed(123)
38
+
39
+ # ユーザー入力
40
+ user_input = [{"role": "user", "content": "こんにちは。あなたの名前を教えて"}]
41
+
42
+ # モデルからの応答生成
43
+ responses = chat_pipeline(
44
+ user_input,
45
+ max_length=50,
46
+ do_sample=True,
47
+ num_return_sequences=3,
48
+ )
49
+
50
+ # 応答を表示
51
+ for i, response in enumerate(responses, 1):
52
+ print(f"Response {i}: {response['generated_text']}")
53
+
54
+ # 出力例:
55
+ # Response 1: [{'role': 'user', 'content': 'こんにちは。あなたの名前を教えて'}, {'role': 'assistant', 'content': 'Sarashina2と言います。本日のご要件を教えて下さい。'}]
56
+ # Response 2: [{'role': 'user', 'content': 'こんにちは。あなたの名前を教えて'}, {'role': 'assistant', 'content': 'こんにちは!私の名前はSarashina2です。今日はどうしましたか?'}]
57
+ # Response 3: [{'role': 'user', 'content': 'こんにちは。あなたの名前を教えて'}, {'role': 'assistant', 'content': 'Sarashina2と言います。本日のご要件を教えて下さい。'}]
58
+ ```
59
+
60
+ ## 推奨環境と注意点
61
+
62
+ - MoE構造のため、通常のモデルよりも多くのGPUメモリが必要です。
63
+ - 推論にはbfloat16対応のハードウェアを推奨します。
64
+ - ファインチューニングを行う場合は専門領域ごとのバランス調整に注意してください。
65
+
66
+ ## ライセンスとクレジット
67
+
68
+ 本モデルは[sbintuitions/sarashina2.2-3b-instruct-v0.1](https://huggingface.co/sbintuitions/sarashina2.2-3b-instruct-v0.1)を元に構築されています。元モデルのライセンス条件をご確認の上ご利用ください。また、モデル構築には [mergekit-moe](https://github.com/arcee-ai/mergekit/blob/main/docs/moe.md) を使用しています。
69
+
70
+ ## 参考リンク
71
+
72
+ - [sbintuitions/sarashina2.2-3b-instruct-v0.1 (Hugging Face)](https://huggingface.co/sbintuitions/sarashina2.2-3b-instruct-v0.1)
73
+ - [mergekit-moeドキュメント (GitHub)](https://github.com/arcee-ai/mergekit/blob/main/docs/moe.md)