--- library_name: transformers license: other --- # 日本語向け Llama3 8B # Usage ```python import torch from transformers import AutoTokenizer, AutoModelForCausalLM # プロンプトの準備 messages = [ { 'role': "system", 'content': "あなたは日本語で回答するAIアシスタントです。" }, { 'role': "user", 'content': "猫と犬、どっちが好き?" } ] prompt=tokenizer.apply_chat_template(messages, tokenize=False) # 推論の実行 input_ids = tokenizer(prompt, return_tensors="pt").to(model.device) outputs = model.generate( **input_ids, max_new_tokens=128, do_sample=True, top_p=0.95, temperature=0.2, repetition_penalty=1.1, eos_token_id=[ tokenizer.eos_token_id, tokenizer.convert_tokens_to_ids("<|eot_id|>") ], ) print(tokenizer.decode(outputs[0])) ``` Result: ```python ``` # はじめに このリポジトリはLlama3を日本語化しようとしたモデルのリポジトリです。 # ライセンス Llama 3 ライセンスなので商用利用可能です。ただし、Llama 3ライセンスをよく読んで使ってください。 # 学習データ - llm-jp/databricks-dolly-15k-ja - cl-nagoya/auto-wiki-qa - meta-llama/Meta-Llama-3-8B-Instruct # 学習方法 meta-llama/Meta-Llama-3-8B-Instructに対して、cl-nagoya/auto-wiki-qaにある約240万件の学習データでLoRAによるインストラクションチューニングを1epoch行い、LoRAをマージしました。 その後、そのモデルに対して、llm-jp/databricks-dolly-15k-jaでLoRAによるインストラクションチューニングを1epoch行い、LoRAをマージしました。 # ハードウェア - NVIDIA A6000x2 # ソフトウェア - transformers - trl # 学習時間 - 50 GPU hours