aashish1904 commited on
Commit
211760f
1 Parent(s): c3d9237

Upload README.md with huggingface_hub

Browse files
Files changed (1) hide show
  1. README.md +106 -0
README.md ADDED
@@ -0,0 +1,106 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+
2
+ ---
3
+
4
+ language:
5
+ - ja
6
+ pipeline_tag: text-generation
7
+ tags:
8
+ - OpenAccess AI Collective
9
+ - MPT
10
+ - axolotl
11
+ - PyTorch
12
+ - Transformers
13
+ license: apache-2.0
14
+
15
+ ---
16
+
17
+ [![QuantFactory Banner](https://lh7-rt.googleusercontent.com/docsz/AD_4nXeiuCm7c8lEwEJuRey9kiVZsRn2W-b4pWlu3-X534V3YmVuVc2ZL-NXg2RkzSOOS2JXGHutDuyyNAUtdJI65jGTo8jT9Y99tMi4H4MqL44Uc5QKG77B0d6-JfIkZHFaUA71-RtjyYZWVIhqsNZcx8-OMaA?key=xt3VSDoCbmTY7o-cwwOFwQ)](https://hf.co/QuantFactory)
18
+
19
+
20
+ # QuantFactory/TinySlime-1.1B-Chat-v1.0-GGUF
21
+ This is quantized version of [2121-8/TinySlime-1.1B-Chat-v1.0](https://huggingface.co/2121-8/TinySlime-1.1B-Chat-v1.0) created using llama.cpp
22
+
23
+ # Original Model Card
24
+
25
+
26
+ # TinySlime-1.1B-Chat-v1.0
27
+
28
+ TinySlime は日本語に特化した小規模言語モデルです。
29
+
30
+ モデルの一覧
31
+
32
+ - [TinySlime-1.1B-v1.0](https://huggingface.co/2121-8/TinySlime-1.1B-v1.0)
33
+ - [TinySlime-1.1B-Chat-v1.0](https://huggingface.co/2121-8/TinySlime-1.1B-Chat-v1.0)
34
+
35
+ </br>
36
+
37
+ このモデルのフルチューニングは、[Axolotl](https://github.com/OpenAccess-AI-Collective/axolotl) を使用して行われました。
38
+
39
+ [<img src="https://raw.githubusercontent.com/OpenAccess-AI-Collective/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/OpenAccess-AI-Collective/axolotl)
40
+
41
+ ## モデル概要
42
+
43
+ TinySlime-1.1B-Chat-v1.0 は、TinySlime-1.1B-Chat-v1.0 をベースに、Mixtral-8x7B-Instruct-v0.1 が作成した合成データを使用して微調整されたチャットモデルです。</br>
44
+ このモデルは、スマートフォンや NVIDIA Jetson などの組み込み環境で動かすことを想定して作成されました。
45
+
46
+ ## ベンチマーク(JP Language Model Evaluation Harness)
47
+ | model name | JCommonsenseQA (3-shot) | JNLI (3-shot) | MARC-ja (0-shot) | JSQuAD (2-shot) | jaqket-v2 (1-shot) | xlsum (1-shot) | xwinograd (0-shot) | mgsm (5-shot) | AVERAGE |
48
+ |-------------------------------------------------|-------------------------|---------------|------------------|-----------------|--------------------|----------------|---------------------|---------------|---------|
49
+ | lkarasu-1.1B | 24.84 | 34.78 | 50.48 | 51.33 | 18.95 | **9.21** | 62.15 | 2.80 | 31.82 |
50
+ | **TinySlime-Chat** | **66.49** | **64.36** | **92.68** | **84.60** | 42.14 | 7.79 | 60.69** | **9.20** | **53.50** |
51
+ | japanese-large-lm-3.6b-instruction-sft | 38.87 | 34.68 | 50.52 | 58.57 | 56.54 | 6.25 | 64.23 | 1.60 | 38.91 |
52
+ | open-calm-3b | 31.64 | 36.56 | 50.99 | 51.47 | 50.99 | 4.63 | 63.30 | 2.00 | 35.97 |
53
+ | bilingual-gpt-neox-4b-instruction-ppo | 50.49 | 38.90 | 88.65 | 72.82 | **65.65** | 4.69 | 64.75 | 3.80 | 48.72 |
54
+ | japanese-gpt-neox-3.6b-instruction-ppo | 44.59 | 35.25 | 64.34 | 58.53 | 26.67 | 3.79 | **68.72** | 3.20 | 33.26 |
55
+
56
+ ## 使用方法
57
+
58
+ ### インストール
59
+
60
+ このモデルを使用するには、Hugging Face の`transformers`ライブラリをインストールする必要があります
61
+
62
+ ```bash
63
+ pip install -U transformers
64
+ ```
65
+
66
+ ### モデルの読み込み
67
+
68
+ `transformers`ライブラリを使用してモデルを読み込むことができます
69
+
70
+ ```python
71
+ from transformers import AutoModelForCausalLM, AutoTokenizer
72
+
73
+ model_name = "2121-8/TinySlime-1.1B-Chat-v1.0"
74
+ tokenizer = AutoTokenizer.from_pretrained(model_name)
75
+ model = AutoModel.from_pretrained(model_name)
76
+ ```
77
+
78
+ ### テキスト生成
79
+
80
+ 以下の例では、読み込んだモデルを使用してテキストを生成する方法を示します
81
+
82
+ ```python
83
+ text = "こんにちは"
84
+
85
+ messages = [
86
+ {
87
+ "role": "system",
88
+ "content": "You are an assistant called ChatBot. You are a friendly and very good chatbot.",
89
+ },
90
+ {"role": "user", "content": text},
91
+ ]
92
+ prompt = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
93
+ input_ids = tokenizer(prompt, return_tensors="pt")
94
+
95
+ # テキストを生成
96
+ outputs = model.generate(input_ids, max_length=50, num_return_sequences=1)
97
+ generated_text = tokenizer.decode(outputs[0], skip_special_tokens=True)
98
+
99
+ print(generated_text)
100
+ ```
101
+
102
+ ## 謝辞
103
+
104
+ このモデルは、TinyLlama プロジェクトの成果に基づいて構築されました。NLP コミュニティへの貢献に感謝します。
105
+ また、このモデルの開発にあたり、[Axolotl](https://github.com/OpenAccess-AI-Collective/axolotl) のサポートとツールを利用しました。
106
+ NLP コミュニティへの貢献に感謝します。