metadata
license: apache-2.0
datasets:
- FGOTYT/Telegram_FGOT_ru
language:
- ru
base_model:
- Qwen/Qwen2.5-1.5B-Instruct
TG_FGOT_Qwen2.5_1.5B 💬
Only russian-language fine-tuned model on base Qwen2.5-1.5B-Instruct!
Это только русскоязычная модель, дотренированная на базе Qwen2.5-1.5B-Instruct!
Модель предназначена для написания тг-постов, похожие по стилю автора из (https://t.me/FGOT_Official). Модель создана им же (FGOTYT).
В отличии от 3B и 7B моделей этой же серии, 1.5B была обучена на более мощных значениях, и может быть сравнима с 3B версией по качеству.
- Длина Контекста: 4,096.
- Датасет: 140 телеграм постов.
- Пример запроса: "Напиши страшный пост в 3 часа ночи".
- Системный промпт: Отсутствует.
- Рекомендуемая температура: 0.2-0.6.
Датасет модели доступен здесь: https://huggingface.co/datasets/FGOTYT/Telegram_FGOT_ru.