File size: 2,565 Bytes
346380a
 
 
 
 
 
 
 
 
 
 
 
 
 
bac3426
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
---
license: apache-2.0
datasets:
- Aratako/Rosebleu-1on1-Dialogues-RP
- Aratako/LimaRP-augmented-ja-karakuri
- grimulkan/LimaRP-augmented
- Aratako/Bluemoon_Top50MB_Sorted_Fixed_ja
- SicariusSicariiStuff/Bluemoon_Top50MB_Sorted_Fixed
- OmniAICreator/Japanese-Roleplay
language:
- ja
library_name: transformers
tags:
- roleplay
base_model:
- Local-Novel-LLM-project/Ninja-v1-NSFW
---

# Ninja-v1-RP-WIP

## 概要
[Local-Novel-LLM-project/Ninja-v1-NSFW](https://huggingface.co/Local-Novel-LLM-project/Ninja-v1-NSFW)をロールプレイ用にLoRAでファインチューニングしたモデルです。

[Aratako/Ninja-v1-RP](https://huggingface.co/Aratako/Ninja-v1-RP)のベースとなるモデルとして利用しています。

## プロンプトフォーマット
Vicunaのchat templateを利用してください。また、設定などを渡すシステムプロンプトは最初の`USER: `より前に入力されることを想定しています。

また、マルチターンの対話を行う場合各ターンのアシスタントの応答の末尾に`eos_token`を必ずつけてください。

```
{ロールプレイの指示、世界観・あらすじの説明、キャラの設定など}
USER: {userの最初の入力}
ASSISTANT: 
```

## 学習データセット
GPTやLlama2等の出力の学習利用時に問題があるモデルを使って作成されたデータセットは一切使っていません。

### 日本語データセット
- [Aratako/Rosebleu-1on1-Dialogues-RP](https://huggingface.co/datasets/Aratako/Rosebleu-1on1-Dialogues-RP)
- [Aratako/LimaRP-augmented-ja-karakuri](https://huggingface.co/datasets/Aratako/LimaRP-augmented-ja-karakuri)
- [Aratako/Bluemoon_Top50MB_Sorted_Fixed_ja](https://huggingface.co/datasets/Aratako/Bluemoon_Top50MB_Sorted_Fixed_ja)
- [OmniAICreator/Japanese-Roleplay](https://huggingface.co/datasets/OmniAICreator/Japanese-Roleplay)
### 英語データセット
- [grimulkan/LimaRP-augmented](https://huggingface.co/datasets/grimulkan/LimaRP-augmented)
- [SicariusSicariiStuff/Bluemoon_Top50MB_Sorted_Fixed](https://huggingface.co/datasets/SicariusSicariiStuff/Bluemoon_Top50MB_Sorted_Fixed)

## 学習の設定
RunpodでGPUサーバを借り、A6000x4で学習を行いました。主な学習パラメータは以下の通りです。
- lora_r: 128
- lisa_alpha: 256
- lora_dropout: 0.05
- lora_target_modules: ["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj", "lm_head"]
- learning_rate: 2e-5
- num_train_epochs: 3 epochs
- batch_size: 64
- max_seq_length: 4096