Aratako commited on
Commit
bac3426
1 Parent(s): 346380a

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +44 -1
README.md CHANGED
@@ -12,4 +12,47 @@ language:
12
  library_name: transformers
13
  tags:
14
  - roleplay
15
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
12
  library_name: transformers
13
  tags:
14
  - roleplay
15
+ base_model:
16
+ - Local-Novel-LLM-project/Ninja-v1-NSFW
17
+ ---
18
+
19
+ # Ninja-v1-RP-WIP
20
+
21
+ ## 概要
22
+ [Local-Novel-LLM-project/Ninja-v1-NSFW](https://huggingface.co/Local-Novel-LLM-project/Ninja-v1-NSFW)をロールプレイ用にLoRAでファインチューニングしたモデルです。
23
+
24
+ [Aratako/Ninja-v1-RP](https://huggingface.co/Aratako/Ninja-v1-RP)のベースとなるモデルとして利用しています。
25
+
26
+ ## プロンプトフォーマット
27
+ Vicunaのchat templateを利用してください。また、設定などを渡すシステムプロンプトは最初の`USER: `より前に入力されることを想定しています。
28
+
29
+ また、マルチターンの対話を行う場合各ターンのアシスタントの応答の末尾に`eos_token`を必ずつけてください。
30
+
31
+ ```
32
+ {ロールプレイの指示、世界観・あらすじの説明、キャラの設定など}
33
+ USER: {userの最初の入力}
34
+ ASSISTANT:
35
+ ```
36
+
37
+ ## 学習データセット
38
+ GPTやLlama2等の出力の学習利用時に問題があるモデルを使って作成されたデータセットは一切使っていません。
39
+
40
+ ### 日本語データセット
41
+ - [Aratako/Rosebleu-1on1-Dialogues-RP](https://huggingface.co/datasets/Aratako/Rosebleu-1on1-Dialogues-RP)
42
+ - [Aratako/LimaRP-augmented-ja-karakuri](https://huggingface.co/datasets/Aratako/LimaRP-augmented-ja-karakuri)
43
+ - [Aratako/Bluemoon_Top50MB_Sorted_Fixed_ja](https://huggingface.co/datasets/Aratako/Bluemoon_Top50MB_Sorted_Fixed_ja)
44
+ - [OmniAICreator/Japanese-Roleplay](https://huggingface.co/datasets/OmniAICreator/Japanese-Roleplay)
45
+ ### 英語データセット
46
+ - [grimulkan/LimaRP-augmented](https://huggingface.co/datasets/grimulkan/LimaRP-augmented)
47
+ - [SicariusSicariiStuff/Bluemoon_Top50MB_Sorted_Fixed](https://huggingface.co/datasets/SicariusSicariiStuff/Bluemoon_Top50MB_Sorted_Fixed)
48
+
49
+ ## 学習の設定
50
+ RunpodでGPUサーバを借り、A6000x4で学習を行いました。主な学習パラメータは以下の通りです。
51
+ - lora_r: 128
52
+ - lisa_alpha: 256
53
+ - lora_dropout: 0.05
54
+ - lora_target_modules: ["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj", "lm_head"]
55
+ - learning_rate: 2e-5
56
+ - num_train_epochs: 3 epochs
57
+ - batch_size: 64
58
+ - max_seq_length: 4096