FluentlyLM-Prinum (32B)
A Multilingual General-Purpose AI for Advanced Reasoning & STEM
📖 Overview
FluentlyLM-Prinum یک مدل زبانی پیشرفته 32B پارامتری با معماری مبتنی بر Qwen2 است که برای انجام وظایف استدلال چندمرحلهای، حل مسئله ریاضی و تعاملات چندزبانه بهینهسازی شده است. این مدل با ترکیبی از تکنیکهای آموزش پیشرفته و دادههای کیفیت بالا توسعه یافته است.
🛠 Technical Specifications
Category | Details |
---|---|
Architecture | Transformer-based (QwenForCausalLM) |
Context Window | 131k tokens |
Precision | bfloat16 |
Training Framework | Unsloth AI + Axolotl |
Languages | انگلیسی، فرانسوی، اسپانیایی، روسی، چینی، ژاپنی، فارسی + کدنویسی |
Commercial Use | ✅ مجاز تحت لیسانس MIT |
🏆 Performance Highlights
Leaderboard Results
Benchmark | Configuration | Score |
---|---|---|
IFEval (Instruction) | 0-Shot | 80.9 |
BBH (Reasoning) | 3-Shot | 59.48 |
MATH (LvL 5) | 4-Shot | 54.0 |
MMLU-Pro (Advanced) | 5-Shot | 53.42 |
💻 Getting Started
Installation
pip install "transformers>=4.39.0" torch
Basic Usage
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained(
"fluently-lm/FluentlyLM-Prinum",
device_map="auto",
torch_dtype="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_id)
messages = [
{"role": "system", "content": "You are an expert AI assistant"},
{"role": "user", "content": "Solve: ∫₀¹ x²eˣ dx"}
]
inputs = tokenizer.apply_chat_template(
messages,
return_tensors="pt"
).to(model.device)
outputs = model.generate(inputs, max_new_tokens=256)
print(tokenizer.decode(outputs[0]))
Quantized Versions
Format | Repository | Recommended |
---|---|---|
GGUF | mradermacher/FluentlyLM-Prinum-GGUF | Q4_K_M |
AWQ | Coming Soon | - |
🧠 Training Details
Dataset Composition
Dataset | Percentage | Domain |
---|---|---|
fluently-sets/ultraset | 45% | General Knowledge |
fluently-sets/ultrathink | 30% | Chain-of-Thought |
fluently-sets/reasoning-1-1k | 15% | Logical Reasoning |
fluently-sets/MATH-500-Overall | 10% | Mathematical Proofs |
Training Parameters
Parameter | Value |
---|---|
Total Tokens | 2.1T |
Batch Size | 4M tokens |
Learning Rate | 2e-5 |
Warmup Steps | 1,200 |
Sequence Length | 131k |
Training Hardware | 64×H100 (NVLink) |
⚠️ Limitations & Safety
محدودیتهای شناختی:
عملکرد بهینه در مسائل نیازمند دانش تخصصی پس از سال 2023هشدارهای امنیتی:
from transformers import AutoModelForCausalLM model = AutoModelForCausalLM.from_pretrained( "fluently-lm/FluentlyLM-Prinum", trust_remote_code=True, use_safetensors=True )
📜 Citation
اگر از این مدل در تحقیقات خود استفاده میکنید، لطفاً به صورت زیر ارجاع دهید:
@misc{FluentlyLM-Prinum,
author = {Fluently AI Team},
title = {FluentlyLM-Prinum: Advanced Multilingual Reasoning Model},
year = {2024},
publisher = {HuggingFace},
howpublished = {\url{https://huggingface.co/fluently-lm/FluentlyLM-Prinum}}
}
🤝 Partnership Opportunities
برای همکاریهای تحقیقاتی یا استفاده تجاری، با تیم ما تماس بگیرید:
contact@fluently.ai
توسعه داده شده با ❤️ توسط Fluently AI Research
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support
HF Inference deployability: The model has no library tag.