Edit model card

QuantFactory Banner

QuantFactory/OmniLing-V1-12b-experimental-GGUF

This is quantized version of WoonaAI/OmniLing-V1-12b-experimental created using llama.cpp

Original Model Card

Это экспериментальный релиз, созданный исключительно в исследовательских целях! К сожалению, стабильная работа не гарантируется

GGUF's

Thanks mradermacher!)

Static: https://huggingface.co/mradermacher/OmniLing-V1-12b-experimental-GGUF

IMatrix: https://huggingface.co/mradermacher/OmniLing-V1-12b-experimental-i1-GGUF

Model overview

OmniLing - модель, созданная для переводов между русским и английским языком (пары RU->EN, EN->RU). Эта модель является тонкой настройкой Mistral Nemo 12b. Она находится на одном уровне с крупнейшими проприетарными моделями и может быть использована для качественного перевода художественных текстов, датасетов, сообщений пользователей, описаний и т.п При обучении были использованы собственноручно сгенерированные данные от более сильной модели.

Prompt Template - Mistral Nemo Instruct

Recommended settings

Очень рекомендуется использовать низкую температуру T=(0.1-0.3)

Не указывайте в system prompt задачу перевести этот текст, там должно быть что-то нейтральное (e.g You are a helpful AI assistant). Указывайте сообщение в user message (см. Prompt Template), модель была обучена именно под такой формат.

Authors

Made by PegasusYaY(AlexBefest) and secretmoon

License

This model is released under the Creative Commons Attribution-NonCommercial 4.0 International License. If you want to use this model in your commercial product, contact with us.

Downloads last month
9
GGUF
Model size
12.2B params
Architecture
llama

2-bit

3-bit

4-bit

5-bit

6-bit

8-bit

Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for QuantFactory/OmniLing-V1-12b-experimental-GGUF

Quantized
(88)
this model