--- license: apache-2.0 language: - ja widget: - text: 人とAIが協調するためには、 --- # Mixtral-8x7B-Instruct-v0.1-japanese Mixtral-8x7B-Instruct-v0.1-japaneseは[Mixtral-8x7B-Instruct-v0.1](https://huggingface.co/mistralai/Mixtral-8x7B-Instruct-v0.1)をベースに日本語の語彙拡張継続事前学習を実施したモデルです。 詳細は[ABEJAのテックブログ](https://tech-blog.abeja.asia/entry/abeja-nedo-project-part1-202404)を参照してください。 学習を実施したMetagton-LMのレポジトリは[こちら](https://github.com/abeja-inc/Megatron-LM)です。 # 使い方 ``` python import torch from transformers import AutoModelForCausalLM, AutoTokenizer model_name = "abeja/Mixtral-8x7B-Instruct-v0.1-japanese" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained( model_name, torch_dtype=torch.float16, use_cache=True, device_map="auto", ) model.eval() input_text = """# system 誠実で紳士的で優秀なAIアシスタントとして、簡潔でわかりやすく役に立つ回答を自信をもって答えなさい。 # question 人とAIが協調するためには? # answer""" input_ids = tokenizer.encode(input_text, return_tensors="pt") with torch.no_grad(): output_ids = model.generate( input_ids.to(model.device), max_new_tokens=256, pad_token_id=tokenizer.pad_token_id, eos_token_id=tokenizer.eos_token_id, ) output = tokenizer.decode(output_ids.tolist()[0], skip_special_tokens=True) print(output) ``` # 開発者 - Keisuke Fujimoto - Kentaro Nakanishi - Kyo Hattori - Shinya Otani - Shogo Muranushi (*)アルファベット順