--- language: - ja pipeline_tag: text-generation tags: - OpenAccess AI Collective - MPT - axolotl - PyTorch - Transformers license: apache-2.0 --- [![QuantFactory Banner](https://lh7-rt.googleusercontent.com/docsz/AD_4nXeiuCm7c8lEwEJuRey9kiVZsRn2W-b4pWlu3-X534V3YmVuVc2ZL-NXg2RkzSOOS2JXGHutDuyyNAUtdJI65jGTo8jT9Y99tMi4H4MqL44Uc5QKG77B0d6-JfIkZHFaUA71-RtjyYZWVIhqsNZcx8-OMaA?key=xt3VSDoCbmTY7o-cwwOFwQ)](https://hf.co/QuantFactory) # QuantFactory/TinySlime-1.1B-Chat-v1.0-GGUF This is quantized version of [2121-8/TinySlime-1.1B-Chat-v1.0](https://huggingface.co/2121-8/TinySlime-1.1B-Chat-v1.0) created using llama.cpp # Original Model Card # TinySlime-1.1B-Chat-v1.0 TinySlime は日本語に特化した小規模言語モデルです。 モデルの一覧 - [TinySlime-1.1B-v1.0](https://huggingface.co/2121-8/TinySlime-1.1B-v1.0) - [TinySlime-1.1B-Chat-v1.0](https://huggingface.co/2121-8/TinySlime-1.1B-Chat-v1.0)
このモデルのフルチューニングは、[Axolotl](https://github.com/OpenAccess-AI-Collective/axolotl) を使用して行われました。 [Built with Axolotl](https://github.com/OpenAccess-AI-Collective/axolotl) ## モデル概要 TinySlime-1.1B-Chat-v1.0 は、TinySlime-1.1B-Chat-v1.0 をベースに、Mixtral-8x7B-Instruct-v0.1 が作成した合成データを使用して微調整されたチャットモデルです。
このモデルは、スマートフォンや NVIDIA Jetson などの組み込み環境で動かすことを想定して作成されました。 ## ベンチマーク(JP Language Model Evaluation Harness) | model name | JCommonsenseQA (3-shot) | JNLI (3-shot) | MARC-ja (0-shot) | JSQuAD (2-shot) | jaqket-v2 (1-shot) | xlsum (1-shot) | xwinograd (0-shot) | mgsm (5-shot) | AVERAGE | |-------------------------------------------------|-------------------------|---------------|------------------|-----------------|--------------------|----------------|---------------------|---------------|---------| | lkarasu-1.1B | 24.84 | 34.78 | 50.48 | 51.33 | 18.95 | **9.21** | 62.15 | 2.80 | 31.82 | | **TinySlime-Chat** | **66.49** | **64.36** | **92.68** | **84.60** | 42.14 | 7.79 | 60.69** | **9.20** | **53.50** | | japanese-large-lm-3.6b-instruction-sft | 38.87 | 34.68 | 50.52 | 58.57 | 56.54 | 6.25 | 64.23 | 1.60 | 38.91 | | open-calm-3b | 31.64 | 36.56 | 50.99 | 51.47 | 50.99 | 4.63 | 63.30 | 2.00 | 35.97 | | bilingual-gpt-neox-4b-instruction-ppo | 50.49 | 38.90 | 88.65 | 72.82 | **65.65** | 4.69 | 64.75 | 3.80 | 48.72 | | japanese-gpt-neox-3.6b-instruction-ppo | 44.59 | 35.25 | 64.34 | 58.53 | 26.67 | 3.79 | **68.72** | 3.20 | 33.26 | ## 使用方法 ### インストール このモデルを使用するには、Hugging Face の`transformers`ライブラリをインストールする必要があります ```bash pip install -U transformers ``` ### モデルの読み込み `transformers`ライブラリを使用してモデルを読み込むことができます ```python from transformers import AutoModelForCausalLM, AutoTokenizer model_name = "2121-8/TinySlime-1.1B-Chat-v1.0" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModel.from_pretrained(model_name) ``` ### テキスト生成 以下の例では、読み込んだモデルを使用してテキストを生成する方法を示します ```python text = "こんにちは" messages = [ { "role": "system", "content": "You are an assistant called ChatBot. You are a friendly and very good chatbot.", }, {"role": "user", "content": text}, ] prompt = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True) input_ids = tokenizer(prompt, return_tensors="pt") # テキストを生成 outputs = model.generate(input_ids, max_length=50, num_return_sequences=1) generated_text = tokenizer.decode(outputs[0], skip_special_tokens=True) print(generated_text) ``` ## 謝辞 このモデルは、TinyLlama プロジェクトの成果に基づいて構築されました。NLP コミュニティへの貢献に感謝します。 また、このモデルの開発にあたり、[Axolotl](https://github.com/OpenAccess-AI-Collective/axolotl) のサポートとツールを利用しました。 NLP コミュニティへの貢献に感謝します。