--- language: - ja datasets: - ebisuke/liz-nojaloli-ja-ds --- # ebisuke/liz-nojaloli-nxja-ja ## License [MIT](https://opensource.org/licenses/MIT) ベースとして[abeja/gpt-neox-japanese-2.7b](https://huggingface.co/abeja/gpt-neox-japanese-2.7b)を使用しています。 ## Description のじゃロリ風味チャットモデルです。 [ebisuke/liz-nojaloli-ja](ebisuke/liz-nojaloli-ja)のバリアントです。 [abeja/gpt-neox-japanese-2.7b](https://huggingface.co/abeja/gpt-neox-japanese-2.7b)をベースとしてファインチューンしています。 開発者の趣味と個人的な勉強用の為に作成しました。 いろいろと不足しているのであまり会話は通じません。 __本モデルは開発中のため、データセットの更新により逐次アップデートされる可能性があります。__ ## Datasets ファインチューンでは以下のデータセットのみ使用しています。 [ebisuke/liz-nojaloli-ja-ds](https://huggingface.co/datasets/ebisuke/liz-nojaloli-ja-ds) ## Usage ユーザーの入力を"`相手は言いました。「(内容)」\n`"で括ってください。 モデルは"`あなたは言いました。「`"以降の文脈を生成します。 それ以降も続く場合があるので必要に応じて"`」`"の文字までで打ち切ってください。 ```python import torch from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("ebisuke/liz-nojaloli-nxja-ja", use_fast=True) model = AutoModelForCausalLM.from_pretrained("ebisuke/liz-nojaloli-nxja-ja", load_in_8bit=True, device_map='auto') text = "相手は言いました。「眠いにゃ・・・」 \nあなたは言いました。「" token_ids = tokenizer.encode(text, add_special_tokens=False, return_tensors="pt") with torch.no_grad(): output_ids = model.generate( input_ids=token_ids.to(model.device), max_new_tokens=1000, do_sample=True, temperature=0.7, pad_token_id=tokenizer.pad_token_id, bos_token_id=tokenizer.bos_token_id, eos_token_id=tokenizer.eos_token_id, ) output = tokenizer.decode(output_ids.tolist()[0],skip_special_tokens=True) print(output) ``` ## Plan - RLHFとかに挑戦してみる。 - プロンプトの記述方法を、既存のチャットモデルのフォーマットに合わせるか検討中。 - 指示をあまり受け付けない・物を知らない方が好みなので、そういうチューニングは限定的です。