GGUF
Inference Endpoints
File size: 1,213 Bytes
7400f83
 
 
 
 
 
 
b563773
7400f83
b563773
7400f83
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
---
license: apache-2.0
---

# Ninja-V2-7B.gguf
このモデルは、ベクトルマージなどを用い作成された高性能ベースモデルです。
用途はチャットのみならず、文章創作など幅広いタスクに対応できます。

GGUFによる8,4ビット量子化を行いました。

Ninja-V2-7Bはこちら→https://huggingface.co/Local-Novel-LLM-project/Ninja-V2-7B

このモデルは、ローカルLLMに向き合う会企画のLocalAIハッカソンの高性能GPUサーバーの助けを借りて作成されました。

関係者の皆様に感謝申し上げます。

# 作成方法
複数のモデルのチャットベクター
モデルの単純な線形マージ

# プロンプトテンプレート
必須ではありませんが、Vicuna-1.1テンプレートを使用することができます。
単純な文章生成においては推奨のテンプレートはありません。

# システムプロンプト

  - BAD: あなたは○○として振る舞います
  - GOOD: あなたは○○です

  - BAD: あなたは○○ができます
  - GOOD: あなたは○○をします

# 制限

Apache-2.0ライセンスに従い使用してください。