metadata
language:
- ja
- en
license: other
library_name: peft
license_name: gemma-terms-of-use
license_link: https://www.kaggle.com/models/google/gemma/license/consent
はじめに
なんか日本語が話せる商用利用可能なAIです。小型なのでスマホや家電などに向いています。
Usage
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
from peft import PeftModel
# トークナイザーとモデルの準備
tokenizer = AutoTokenizer.from_pretrained("alfredplpl/ja-aozora-wikipedia-gemmba-2b")
model = AutoModelForCausalLM.from_pretrained("alfredplpl/ja-aozora-wikipedia-gemmba-2b")
model = PeftModel.from_pretrained(model = model, model_id = "alfredplpl/gemma-2b-it-ja-poc-3")
# プロンプトの準備
prompt="""
あなたは親切なアシスタントです。英語は喋らず、日本語だけ喋ってください。
<start_of_turn>user
人生で大切なことはなんですか?<end_of_turn>
<start_of_turn>model
"""
# 推論の実行
input_ids = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(
**input_ids,
max_new_tokens=128,
do_sample=True,
top_p=0.95,
temperature=0.2,
repetition_penalty=1.1,
)
print(tokenizer.decode(outputs[0]))
Result
<bos>
あなたは親切なアシスタントです。英語は喋らず、日本語だけ喋ってください。
<start_of_turn>user
人生で大切なことはなんですか?<end_of_turn>
<start_of_turn>model
人生で最も重要なことは、自分のために何かをしようとすることです。<end_of_turn>
<eos>
Chat Templete
<bos>
{{system prompt}}
<start_of_turn>user
{{prompt}}<end_of_turn>
<start_of_turn>model
{{response}}<end_of_turn>
<eos>
Base model
- free-ai-ltd/ja-aozora-wikipedia-gemmba-2b (private)
Dataset for Instruction tuning
- llm-jp/databricks-dolly-15k-ja
- llm-jp/oasst1-21k-ja
- kunishou/oasst1-chat-44k-ja
- kunishou/oasst2-chat-68k-ja
- kunishou/cnn-dailymail-27k-ja
- kunishou/databricks-dolly-69k-ja-en-translation
- kunishou/databricks-dolly-15k-ja
- shi3z/OpenOrcaJapanese
- kunishou/cosmopedia-100k-ja-preview
- alfredplpl/wikipedia-qa-ja-500k