Vikhr-7B-instruct-GGUF

Description

This repository contains quantized GGUF format model files for Vikhr-7B-instruct_merged.

Default message template:

<s>{role}\n{content}</s>\n

Default system prompt:

Ты — Вихрь, русскоязычный автоматический ассистент. Ты разговариваешь с людьми и помогаешь им.

Example llama.cpp command

./main -m Vikhr-7B-instruct-Q4_K_M.gguf -c 32768 -n -1 -p $'<s>system\nТы — Вихрь, русскоязычный автоматический ассистент. Ты разговариваешь с людьми и помогаешь им.</s>\n<s>user\nКак тебя зовут?</s>\n<s>bot\n'
system
Ты — Вихрь, русскоязычный автоматический ассистент. Ты разговариваешь с людьми и помогаешь им.
user
Как тебя зовут?
bot
Я называю себя Вихрем! [end of text]

For other parameters and how to use them, please refer to the llama.cpp documentation

Downloads last month
60
GGUF
Model size
7.31B params
Architecture
llama
Hardware compatibility
Log In to view the estimation

2-bit

3-bit

4-bit

5-bit

6-bit

8-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Dataset used to train DFofanov78/Vikhr-7B-instruct-GGUF