TR
Model Genel Bakış
Model Adı: Fikri
Model Türü: Dil Modeli
Dil: Türkçe
Model Boyutu: 8 milyar parametre
Temel Model: Llama 3.1
Geliştirme Donanımı: 2x NVIDIA RTX 4090 GPU
Açıklama:
Fikri, Türkçede "fikir sahibi" veya "düşünce ile ilgili" anlamlarına gelir. Bu model, Türkçe görevler için özel bir veriseti ile eğitilmiş en küçük modellerimizden biridir.
Örnek Alınan Makale: https://arxiv.org/abs/2405.09673
Model Mimarisi
Temel Model: Llama 3.1 8B
Temel Model İnce Ayar Veri Boyutu: ~1 milyar yüksek kaliteli Türkçe metin birimi
Komut Eğitimi Veri Boyutu: 200 bin Türkçe komut seti
Eğitim Bilgileri
Eğitim sonucu istatistikleri:
Kayıp: 0.996
Eğitimi Süresi: (~24 saat)
Epoch: 1.0
Lora Yapılandırması:
r = 128
lora_alpha = 32
learning_rate = 5e-5
Kullanım
Fikri, esas olarak Türkçe metin anlama ve üretim gerektiren görevler için tasarlanmıştır. Basit konfigürasyonu ve optimize edilmiş eğitim verisi, metin üretimi tabanlı yapay zeka uygulamalarından metin özetlemeye kadar çeşitli uygulamalarda Türkçe dilinin inceliklerine uygun ve verimli kullanım sağlar.
Teşekkür
Fikri, Türkçe dil ve kültüründe yapay zekanın yeteneklerinin geliştirilmesi amacıyle üretilmiş, sınırlı Türkçe kaynağın arttırılmasına yönelik bir modeldir. Sorularınız, geri bildirimleriniz veya destek talepleriniz için geliştirme ekibimize ulaşmaktan çekinmeyin.
Brew Interactive/AI Guild https://brewww.com
EN
Model Overview
Model Name: Fikri
Model Type: Language Model
Language: Turkish
Model Size: 8B parameters
Base Model: Llama 3.1
Development Hardware: 2x NVIDIA RTX 4090 GPU
Description:
Fikri, meaning "intellectual" or "of thought" in Turkish. This model is the first and lightest in our lineup, fine-tuned specifically for low-stream Turkish tasks.
Influencing Paper: LoRA Learns Less and Forgets Less
Model Architecture
Base Model: Llama 3.1 8B
Base Model Fine-tuning Data Size: ~1B tokens of high-quality Turkish data
Instruction Training Data Size: 200k Turkish instructions
Training Information
Fikri was trained with the following statistics and configuration:
- Training Loss: 0.996
- Instruction Training Runtime: (~24 hours)
- Epochs: 1.0
Lora Configuration:
r = 128
lora_alpha = 32
learning_rate = 5e-5
Usage
Fikri is primarily designed for tasks requiring understanding and generation of Turkish text. Its light configuration and optimized training data make it suitable for various applications, from conversational AI to text summarization, while maintaining efficiency and relevance to Turkish language nuances.
Acknowledgments
Fikri is a testimony to collaborative innovation, inspired by cutting-edge research and dedicated to advancing the capabilities of artificial intelligence in the Turkish language.
If you have any questions, feedback, or need support, feel free to reach out to our development team.
Brew Interactive/AI Guild https://brewww.com
- Downloads last month
- 2,602
Model tree for BrewInteractive/fikri-3.1-8B-Instruct
Base model
meta-llama/Llama-3.1-8B