Edit model card

Mixtral-8x7B-Instruct-v0.1-japanese

Mixtral-8x7B-Instruct-v0.1-japaneseはMixtral-8x7B-Instruct-v0.1をベースに日本語の語彙拡張継続事前学習を実施したモデルです。
詳細はABEJAのテックブログを参照してください。
学習を実施したMetagton-LMのレポジトリはこちらです。

使い方

import torch
from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "abeja/Mixtral-8x7B-Instruct-v0.1-japanese"

tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype=torch.float16,
    use_cache=True,
    device_map="auto",
)
model.eval()

input_text = """# system
誠実で紳士的で優秀なAIアシスタントとして、簡潔でわかりやすく役に立つ回答を自信をもって答えなさい。

# question
人とAIが協調するためには?

# answer"""
input_ids = tokenizer.encode(input_text, return_tensors="pt")

with torch.no_grad():
    output_ids = model.generate(
        input_ids.to(model.device),
        max_new_tokens=256,
        pad_token_id=tokenizer.pad_token_id,
        eos_token_id=tokenizer.eos_token_id,
    )
output = tokenizer.decode(output_ids.tolist()[0], skip_special_tokens=True)
print(output)

開発者

  • Keisuke Fujimoto
  • Kentaro Nakanishi
  • Kyo Hattori
  • Shinya Otani
  • Shogo Muranushi
    (*)アルファベット順
Downloads last month
12
Safetensors
Model size
46.9B params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.