--- datasets: - snow_simplified_japanese_corpus - mkqa - llm-book/aio_v2 - paws - lmqg/qg_jaquad - SkelterLabsInc/JaQuAD - karakuri-ai/dolly-15k-ja - MBZUAI/Bactrian-X - GEM/wiki_lingua - csebuetnlp/xlsum language: - ja --- # Aerner LM-v2 事前学習から全部日本語で学習させたモデルのバージョン2です。 LLaMAベースで、24GBのVRAMで事前学習できる規模に小さなモデルです。 Flash Attentionが使用されているOpenLLaMAを使用しています。 Wikipediaのデータが中心なので、回答はWikipediaっぽい感じになります。 V1に比べると、モノや場所などの概念を持っているようないないような。 データセットはV1と同じですが、学習ステップ数が76,000と延長。 学習記録はこちら https://wandb.ai/tahomatx/huggingface/runs/xyy19rbx Instruction-Answer例 ※ モデルは、Instructionの後に、Answerを追記します。入力は、Instruction部分までを入力します。 ``` ### Instruction: 東京駅について説明してください。 ### Context: ### Answer: 東急東横線・神楽坂駅から徒歩約10分のところに位置している。改札口は1ヶ所のみで、乗車券は駅前ロータリーに設置されており、自動券売機等の設備はない。出入口は1番から4番までの合計6ヵ所あり、それぞれのホームには駐輪場が設けられている(2019年3月現在)。 ⁇ 無人駅である。 ⁇ 簡易委託駅であったが、2018年3月31日をもって廃止され、有人駅時代の駅舎は取り壊されてしまった。 JR東日本ステーションサービスによる業務 ``` ``` ### Instruction: ドラえもんについて説明してください。 ### Context: ### Answer: 2007年10月1日から2008年3月31日まで放送された約5分の短編ドラマ。主演は声優の山口智充、脚本・演出は鈴木亜美子。原作とは異なるストーリーが展開されており、登場人物の設定もそれに合わせて変更され ている。 ``` サンプルコードです。 ```python from transformers import OpenLlamaForCausalLM, LlamaTokenizer, GenerationConfig, TextStreamer, AutoModelForCausalLM import torch import random import numpy as np import time # # Fix seed # seed = 42 random.seed(seed) # Numpy np.random.seed(seed) # Pytorch torch.manual_seed(seed) torch.cuda.manual_seed(seed) torch.backends.cudnn.deterministic = True torch.use_deterministic_algorithms = True torch.set_default_dtype(torch.bfloat16) model_id = "aerner/lm-v2" text = """### Instruction: 東京駅について説明してください。 ### Context: ### Answer: """ with torch.no_grad(): tokenizer = LlamaTokenizer.from_pretrained(model_id) model = AutoModelForCausalLM.from_pretrained( model_id, device_map="auto", torch_dtype=torch.bfloat16, # load_in_8bit=True, ) generation_config = GenerationConfig( max_new_tokens=256, min_new_tokens=1, early_stopping=True, do_sample=True, num_beams=8, temperature=1.0, top_p=0.6, penalty_alpha=0.4, no_repeat_ngram_size=4, repetition_penalty=1.4, remove_invalid_values=True, num_return_sequences=1, ) start = time.time() tokenized_input = tokenizer(text, return_tensors="pt").to('cuda') generation_output = model.generate( input_ids=tokenized_input['input_ids'], generation_config=generation_config, return_dict_in_generate=True, output_scores=True, ) for s in generation_output.sequences: output = tokenizer.decode(s) print(output) print(time.time() - start) ```