はじめに

GoogleのGemma-2Bを日本語で使えるように継続事前学習を施した、商用利用可能なベースモデルです。 小型なのでスマホや家電などに向いています。ただし、Instruction tuningが困難な可能性があります。

Colabで試す

mmngaさんが作った軽量版Colabで試す

suzume

Usage

from transformers import AutoTokenizer, AutoModelForCausalLM

tokenizer = AutoTokenizer.from_pretrained("alfredplpl/suzume-poc")
model = AutoModelForCausalLM.from_pretrained("alfredplpl/suzume-poc")

input_text = """人工知能とは"""
input_ids = tokenizer(input_text, return_tensors="pt")

outputs = model.generate(**input_ids,max_new_tokens=64)
print(tokenizer.decode(outputs[0]))

Result

<bos>人工知能とは、「人工生物」に基づいた知能、意図、計画、感情などの概念を構築し、人間のような思考・意思・判断・判断などを備えた機体とする試み。
本稿では、人工知能やAIに関する動向をまとめる。なお、「人工知能」と

Base model

  • google/gemma-2b

Dataset for continual pretraining

  • izumi-lab/wikipedia-ja-20230720

How to make this model

Built with Axolotl

Downloads last month
17
Safetensors
Model size
2.51B params
Tensor type
BF16
·
Inference Examples
Inference API (serverless) has been turned off for this model.

Model tree for alfredplpl/suzume-poc

Merges
1 model