--- license: apache-2.0 --- # Ninja-V2-7B このモデルは、ベクトルマージなどを用い作成された高性能ベースモデルです。 用途はチャットのみならず、文章創作など幅広いタスクに対応できます。 このモデルは、ローカルLLMに向き合う会企画のLocalAIハッカソンの高性能GPUサーバーの助けを借りて作成されました。 関係者の皆様に感謝申し上げます。 # 作成方法 モデルレシピは下記の通りです。 Ninja-v2-Base (mergekitにて作成) ```yaml models: - model: MTSAIR/multi_verse_model - model: HuggingFaceH4/zephyr-7b-beta merge_method: model_stock base_model: amazingvince/Not-WizardLM-2-7B dtype: bfloat16 ``` Novels-7B(ninja_mergerにて作成) ```yaml target_model: "stabilityai/japanese-stablelm-instruct-gamma-7b" - left: "Elizezen/Phos-7B" # ベースモデルの指定 right: "stabilityai/japanese-stablelm-instruct-gamma-7b" # サブモデルの指定 operation: "sub" # 組み合わせの操作。"mix"、"add"などを指定 velocity: 1.0 - left: "Elizezen/Antler-7B" # ベースモデルの指定 right: "stabilityai/japanese-stablelm-instruct-gamma-7b" # サブモデルの指定 operation: "sub" # 組み合わせの操作。"mix"、"add"などを指定 velocity: 1.0 ``` Ninja-v2(ninja_mergerにて作成) ```yaml target_model: "Ninja-v2-Base" models: # 組み合わせの重み。0.0から1.0の範囲で指定 - left: "NTQAI/chatntq-ja-7b-v1.0" # ベースモデルの指定 right: "mistralai/Mistral-7B-v0.1" # サブモデルの指定0 operation: "sub" # 組み合わせの操作。"mix"、"add"などを指定 velocity: 1.0 - left: "Elizezen/Berghof-NSFW-7B" # ベースモデルの指定 right: "stabilityai/japanese-stablelm-instruct-gamma-7b" # サブモデルの指定 operation: "sub" # 組み合わせの操作。"mix"、"add"などを指定 velocity: 0.5 - left: "Novels-7B" # ベースモデルの指定 right: "stabilityai/japanese-stablelm-instruct-gamma-7b" # サブモデルの指定 operation: "sub" # 組み合わせの操作。"mix"、"add"などを指定 velocity: 1.0 ``` # プロンプトテンプレート 必須ではありませんが、Vicuna-1.1テンプレートを使用することができます。 単純な文章生成においては推奨のテンプレートはありません。 # システムプロンプト - BAD: あなたは○○として振る舞います - GOOD: あなたは○○です - BAD: あなたは○○ができます - GOOD: あなたは○○をします # 制限 Apache-2.0ライセンスに従い使用してください。