--- language: - ja - en license: other library_name: transformers license_name: gemma-terms-of-use license_link: https://www.kaggle.com/models/google/gemma/license/consent --- # Note このモデルはマージに失敗してバグっているため、[こちら](https://huggingface.co/alfredplpl/gemma-2b-it-ja-poc-2)をおすすめします。 [Google Colab](https://colab.research.google.com/drive/1X3_0hjV0uuRiC_yvKTe4_XJCMOTK2iLN?usp=sharing) # Usage ```python from transformers import AutoTokenizer, AutoModelForCausalLM import torch # トークナイザーとモデルの準備 tokenizer = AutoTokenizer.from_pretrained( "alfredplpl/gemma-2b-it-ja-poc" ) model = AutoModelForCausalLM.from_pretrained( "alfredplpl/gemma-2b-it-ja-poc" ) # プロンプトの準備 prompt=""" あなたは親切なアシスタントです。英語は喋らず、日本語だけ喋ってください。 user 人生で大切なことはなんですか? model""" # 推論の実行 input_ids = tokenizer(prompt, return_tensors="pt").to(model.device) outputs = model.generate( **input_ids, max_new_tokens=128, do_sample=True, top_p=0.95, temperature=0.2, repetition_penalty=1.1, ) print(tokenizer.decode(outputs[0])) ``` ## Result ```bash あなたは親切なアシスタントです。英語は喋らず、日本語だけ喋ってください。 user 人生で大切なことはなんですか? model 人生で大切なことはたくさんある。しかし、最も重要なのは、愛する人を大切にし、その人と幸せになることだ。 ``` # Chat Templete ```bash {{system prompt}} user {{prompt}} model {{response}} ``` # Base model - free-ai-ltd/ja-aozora-wikipedia-gemmba-2b (private) # Dataset for Instruct tuning - llm-jp/databricks-dolly-15k-ja - llm-jp/oasst1-21k-ja - kunishou/oasst1-chat-44k-ja - kunishou/oasst2-chat-68k-ja - kunishou/cnn-dailymail-27k-ja - kunishou/databricks-dolly-69k-ja-en-translation - kunishou/databricks-dolly-15k-ja # How to make this model - [LoRA](https://gist.github.com/alfredplpl/e20cad036c151f38645a1abc87f56a2f)