aashish1904
commited on
Commit
•
211760f
1
Parent(s):
c3d9237
Upload README.md with huggingface_hub
Browse files
README.md
ADDED
@@ -0,0 +1,106 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
|
2 |
+
---
|
3 |
+
|
4 |
+
language:
|
5 |
+
- ja
|
6 |
+
pipeline_tag: text-generation
|
7 |
+
tags:
|
8 |
+
- OpenAccess AI Collective
|
9 |
+
- MPT
|
10 |
+
- axolotl
|
11 |
+
- PyTorch
|
12 |
+
- Transformers
|
13 |
+
license: apache-2.0
|
14 |
+
|
15 |
+
---
|
16 |
+
|
17 |
+
[![QuantFactory Banner](https://lh7-rt.googleusercontent.com/docsz/AD_4nXeiuCm7c8lEwEJuRey9kiVZsRn2W-b4pWlu3-X534V3YmVuVc2ZL-NXg2RkzSOOS2JXGHutDuyyNAUtdJI65jGTo8jT9Y99tMi4H4MqL44Uc5QKG77B0d6-JfIkZHFaUA71-RtjyYZWVIhqsNZcx8-OMaA?key=xt3VSDoCbmTY7o-cwwOFwQ)](https://hf.co/QuantFactory)
|
18 |
+
|
19 |
+
|
20 |
+
# QuantFactory/TinySlime-1.1B-Chat-v1.0-GGUF
|
21 |
+
This is quantized version of [2121-8/TinySlime-1.1B-Chat-v1.0](https://huggingface.co/2121-8/TinySlime-1.1B-Chat-v1.0) created using llama.cpp
|
22 |
+
|
23 |
+
# Original Model Card
|
24 |
+
|
25 |
+
|
26 |
+
# TinySlime-1.1B-Chat-v1.0
|
27 |
+
|
28 |
+
TinySlime は日本語に特化した小規模言語モデルです。
|
29 |
+
|
30 |
+
モデルの一覧
|
31 |
+
|
32 |
+
- [TinySlime-1.1B-v1.0](https://huggingface.co/2121-8/TinySlime-1.1B-v1.0)
|
33 |
+
- [TinySlime-1.1B-Chat-v1.0](https://huggingface.co/2121-8/TinySlime-1.1B-Chat-v1.0)
|
34 |
+
|
35 |
+
</br>
|
36 |
+
|
37 |
+
このモデルのフルチューニングは、[Axolotl](https://github.com/OpenAccess-AI-Collective/axolotl) を使用して行われました。
|
38 |
+
|
39 |
+
[<img src="https://raw.githubusercontent.com/OpenAccess-AI-Collective/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/OpenAccess-AI-Collective/axolotl)
|
40 |
+
|
41 |
+
## モデル概要
|
42 |
+
|
43 |
+
TinySlime-1.1B-Chat-v1.0 は、TinySlime-1.1B-Chat-v1.0 をベースに、Mixtral-8x7B-Instruct-v0.1 が作成した合成データを使用して微調整されたチャットモデルです。</br>
|
44 |
+
このモデルは、スマートフォンや NVIDIA Jetson などの組み込み環境で動かすことを想定して作成されました。
|
45 |
+
|
46 |
+
## ベンチマーク(JP Language Model Evaluation Harness)
|
47 |
+
| model name | JCommonsenseQA (3-shot) | JNLI (3-shot) | MARC-ja (0-shot) | JSQuAD (2-shot) | jaqket-v2 (1-shot) | xlsum (1-shot) | xwinograd (0-shot) | mgsm (5-shot) | AVERAGE |
|
48 |
+
|-------------------------------------------------|-------------------------|---------------|------------------|-----------------|--------------------|----------------|---------------------|---------------|---------|
|
49 |
+
| lkarasu-1.1B | 24.84 | 34.78 | 50.48 | 51.33 | 18.95 | **9.21** | 62.15 | 2.80 | 31.82 |
|
50 |
+
| **TinySlime-Chat** | **66.49** | **64.36** | **92.68** | **84.60** | 42.14 | 7.79 | 60.69** | **9.20** | **53.50** |
|
51 |
+
| japanese-large-lm-3.6b-instruction-sft | 38.87 | 34.68 | 50.52 | 58.57 | 56.54 | 6.25 | 64.23 | 1.60 | 38.91 |
|
52 |
+
| open-calm-3b | 31.64 | 36.56 | 50.99 | 51.47 | 50.99 | 4.63 | 63.30 | 2.00 | 35.97 |
|
53 |
+
| bilingual-gpt-neox-4b-instruction-ppo | 50.49 | 38.90 | 88.65 | 72.82 | **65.65** | 4.69 | 64.75 | 3.80 | 48.72 |
|
54 |
+
| japanese-gpt-neox-3.6b-instruction-ppo | 44.59 | 35.25 | 64.34 | 58.53 | 26.67 | 3.79 | **68.72** | 3.20 | 33.26 |
|
55 |
+
|
56 |
+
## 使用方法
|
57 |
+
|
58 |
+
### インストール
|
59 |
+
|
60 |
+
このモデルを使用するには、Hugging Face の`transformers`ライブラリをインストールする必要があります
|
61 |
+
|
62 |
+
```bash
|
63 |
+
pip install -U transformers
|
64 |
+
```
|
65 |
+
|
66 |
+
### モデルの読み込み
|
67 |
+
|
68 |
+
`transformers`ライブラリを使用してモデルを読み込むことができます
|
69 |
+
|
70 |
+
```python
|
71 |
+
from transformers import AutoModelForCausalLM, AutoTokenizer
|
72 |
+
|
73 |
+
model_name = "2121-8/TinySlime-1.1B-Chat-v1.0"
|
74 |
+
tokenizer = AutoTokenizer.from_pretrained(model_name)
|
75 |
+
model = AutoModel.from_pretrained(model_name)
|
76 |
+
```
|
77 |
+
|
78 |
+
### テキスト生成
|
79 |
+
|
80 |
+
以下の例では、読み込んだモデルを使用してテキストを生成する方法を示します
|
81 |
+
|
82 |
+
```python
|
83 |
+
text = "こんにちは"
|
84 |
+
|
85 |
+
messages = [
|
86 |
+
{
|
87 |
+
"role": "system",
|
88 |
+
"content": "You are an assistant called ChatBot. You are a friendly and very good chatbot.",
|
89 |
+
},
|
90 |
+
{"role": "user", "content": text},
|
91 |
+
]
|
92 |
+
prompt = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
|
93 |
+
input_ids = tokenizer(prompt, return_tensors="pt")
|
94 |
+
|
95 |
+
# テキストを生成
|
96 |
+
outputs = model.generate(input_ids, max_length=50, num_return_sequences=1)
|
97 |
+
generated_text = tokenizer.decode(outputs[0], skip_special_tokens=True)
|
98 |
+
|
99 |
+
print(generated_text)
|
100 |
+
```
|
101 |
+
|
102 |
+
## 謝辞
|
103 |
+
|
104 |
+
このモデルは、TinyLlama プロジェクトの成果に基づいて構築されました。NLP コミュニティへの貢献に感謝します。
|
105 |
+
また、このモデルの開発にあたり、[Axolotl](https://github.com/OpenAccess-AI-Collective/axolotl) のサポートとツールを利用しました。
|
106 |
+
NLP コミュニティへの貢献に感謝します。
|