Text Generation
Transformers
Safetensors
Japanese
mistral
roleplay
Merge
mergekit
Inference Endpoints
text-generation-inference
Edit model card

Ninja-v1-RP

GGUF版はこちら/Click here for the GGUF version

概要

This is a merge of pre-trained language models created using mergekit.

Aratako/Ninja-v1-RP-WIPをベースに、Task Vectorの加算・Model Stockによるマージを行い指示追従能力と表現力を強化したロールプレイ用モデルです。

マージ元モデルの学習データセット等の詳細は元モデルのモデルカードを参照してください。

プロンプトフォーマット

Vicunaのchat templateを利用してください。また、設定などを渡すシステムプロンプトは最初のUSER: より前に入力されることを想定しています。

また、マルチターンの対話を行う場合各ターンのアシスタントの応答の末尾にeos_token</s>)を必ずつけてください。

{ロールプレイの指示、世界観・あらすじの説明、キャラの設定など}
USER: {userの最初の入力}
ASSISTANT: 

マージの詳細

まず、Aratako/Ninja-v1-RP-WIPに対し、以下4つの英語RP用モデルのTask Vectorを0.8倍して加算し、4種類のTask Vector加算モデルを作成しました。

各モデルのTask Vectorの加算の式は以下の通りです。

new_model = Ninja-v1-RP-WIP + 0.8 * (target_model - Mistral-7B-v0.1)

次に、このTask Vector加算によってできた4モデルと元のモデルを、Model Stockという手法を用い以下のようなconfigを使ってmergekitでマージし、このモデルを作成しました。

models:
  - model: ./Ninja-v1-RP-WIP
  - model: ./Ninja-v1-RP-WIP-Kunoichi
  - model: ./Ninja-v1-RP-WIP-SiliconMaid
  - model: ./Ninja-v1-RP-WIP-WestLake
  - model: ./Ninja-v1-RP-WIP-LoyalMacaroniMaid
merge_method: model_stock
base_model: ./Ninja-v1-RP-WIP
dtype: bfloat16
tokenizer_source: union
Downloads last month
36
Safetensors
Model size
7.24B params
Tensor type
BF16
·

Finetuned from

Datasets used to train Aratako/Ninja-v1-RP