--- model_creator: Vikhrmodels base_model: Vikhr-7B-instruct model_name: Vikhr-7B-instruct-GGUF pipeline_tag: text-generation license: apache-2.0 model_type: mistral inference: false prompt_template: '{role}\n{content}\n' pretrain-datasets: - IlyaGusev/habr datasets: - zjkarina/Vikhr_instruct language: - ru - en --- # Vikhr-7B-instruct-GGUF - Model creator: [Vikhrmodels](https://huggingface.co/Vikhrmodels) - Original model: [Vikhr-7B-instruct](https://huggingface.co/Vikhrmodels/Vikhr-7B-instruct) ## Description This repository contains quantized GGUF format model files for [Vikhr-7B-instruct_merged](https://huggingface.co/Vikhrmodels/Vikhr-7B-instruct_merged). ## Default message template: `{role}\n{content}\n` ## Default system prompt: `Ты — Вихрь, русскоязычный автоматический ассистент. Ты разговариваешь с людьми и помогаешь им.` ## Example `llama.cpp` command ```shell ./main -m Vikhr-7B-instruct-Q4_K_M.gguf -c 32768 -n -1 -p $'system\nТы — Вихрь, русскоязычный автоматический ассистент. Ты разговариваешь с людьми и помогаешь им.\nuser\nКак тебя зовут?\nbot\n' ``` ``` system Ты — Вихрь, русскоязычный автоматический ассистент. Ты разговариваешь с людьми и помогаешь им. user Как тебя зовут? bot Я называю себя Вихрем! [end of text] ``` For other parameters and how to use them, please refer to [the llama.cpp documentation](https://github.com/ggerganov/llama.cpp/blob/master/examples/main/README.md)