FluentlyLM Banner

FluentlyLM-Prinum (32B)

A Multilingual General-Purpose AI for Advanced Reasoning & STEM

📖 Overview

FluentlyLM-Prinum یک مدل زبانی پیشرفته 32B پارامتری با معماری مبتنی بر Qwen2 است که برای انجام وظایف استدلال چندمرحلهای، حل مسئله ریاضی و تعاملات چندزبانه بهینهسازی شده است. این مدل با ترکیبی از تکنیکهای آموزش پیشرفته و دادههای کیفیت بالا توسعه یافته است.

🛠 Technical Specifications

Category Details
Architecture Transformer-based (QwenForCausalLM)
Context Window 131k tokens
Precision bfloat16
Training Framework Unsloth AI + Axolotl
Languages انگلیسی، فرانسوی، اسپانیایی، روسی، چینی، ژاپنی، فارسی + کدنویسی
Commercial Use ✅ مجاز تحت لیسانس MIT

🏆 Performance Highlights

Leaderboard Results

Benchmark Configuration Score
IFEval (Instruction) 0-Shot 80.9
BBH (Reasoning) 3-Shot 59.48
MATH (LvL 5) 4-Shot 54.0
MMLU-Pro (Advanced) 5-Shot 53.42

Performance Comparison

💻 Getting Started

Installation

pip install "transformers>=4.39.0" torch

Basic Usage

from transformers import AutoModelForCausalLM, AutoTokenizer

model = AutoModelForCausalLM.from_pretrained(
    "fluently-lm/FluentlyLM-Prinum", 
    device_map="auto",
    torch_dtype="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_id)

messages = [
    {"role": "system", "content": "You are an expert AI assistant"},
    {"role": "user", "content": "Solve: ∫₀¹ x²eˣ dx"}
]

inputs = tokenizer.apply_chat_template(
    messages,
    return_tensors="pt"
).to(model.device)

outputs = model.generate(inputs, max_new_tokens=256)
print(tokenizer.decode(outputs[0]))

Quantized Versions

Format Repository Recommended
GGUF mradermacher/FluentlyLM-Prinum-GGUF Q4_K_M
AWQ Coming Soon -

🧠 Training Details

Dataset Composition

Dataset Percentage Domain
fluently-sets/ultraset 45% General Knowledge
fluently-sets/ultrathink 30% Chain-of-Thought
fluently-sets/reasoning-1-1k 15% Logical Reasoning
fluently-sets/MATH-500-Overall 10% Mathematical Proofs

Training Parameters

Parameter Value
Total Tokens 2.1T
Batch Size 4M tokens
Learning Rate 2e-5
Warmup Steps 1,200
Sequence Length 131k
Training Hardware 64×H100 (NVLink)

⚠️ Limitations & Safety

  • محدودیتهای شناختی:
    عملکرد بهینه در مسائل نیازمند دانش تخصصی پس از سال 2023

  • هشدارهای امنیتی:

    from transformers import AutoModelForCausalLM
    
    model = AutoModelForCausalLM.from_pretrained(
        "fluently-lm/FluentlyLM-Prinum",
        trust_remote_code=True,
        use_safetensors=True
    )
    

📜 Citation

اگر از این مدل در تحقیقات خود استفاده میکنید، لطفاً به صورت زیر ارجاع دهید:

@misc{FluentlyLM-Prinum,
  author = {Fluently AI Team},
  title = {FluentlyLM-Prinum: Advanced Multilingual Reasoning Model},
  year = {2024},
  publisher = {HuggingFace},
  howpublished = {\url{https://huggingface.co/fluently-lm/FluentlyLM-Prinum}}
}

🤝 Partnership Opportunities

برای همکاریهای تحقیقاتی یا استفاده تجاری، با تیم ما تماس بگیرید:
contact@fluently.ai


توسعه داده شده با ❤️ توسط Fluently AI Research
Downloads last month

-

Downloads are not tracked for this model. How to track
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support