TG_FGOT_Qwen2.5_3B 💬

Only russian-language fine-tuned model on base Qwen2.5-3B-Instruct!

Это только русскоязычная модель, дотренированная на базе Qwen2.5-3B-Instruct!

Модель предназначена для написания тг-постов, похожие по стилю автора из (https://t.me/FGOT_Official). Модель создана им же (FGOTYT).

  • Длина Контекста: 4,096.
  • Датасет: 154 телеграм постов.
  • Пример запроса: "Напиши пост про черепашек".
  • Системный промпт: Отсутствует.

Датасет модели доступен здесь: https://huggingface.co/datasets/FGOTYT/Telegram_FGOT_ru.

Downloads last month
136
GGUF
Model size
3.09B params
Architecture
qwen2

2-bit

4-bit

5-bit

6-bit

8-bit

Inference API
Unable to determine this model's library. Check the docs .

Model tree for FGOTYT/TG_FGOT_Qwen2.5_3B

Base model

Qwen/Qwen2.5-3B
Quantized
(79)
this model

Dataset used to train FGOTYT/TG_FGOT_Qwen2.5_3B

Collection including FGOTYT/TG_FGOT_Qwen2.5_3B