Text Generation
Safetensors
Turkish
llama
conversational

TR

Model Genel Bakış

Model Adı: Fikri

Model Türü: Dil Modeli

Dil: Türkçe

Model Boyutu: 8 milyar parametre

Temel Model: Llama 3.1

Geliştirme Donanımı: 2x NVIDIA RTX 4090 GPU

Açıklama:

Fikri, Türkçede "fikir sahibi" veya "düşünce ile ilgili" anlamlarına gelir. Bu model, Türkçe görevler için özel bir veriseti ile eğitilmiş en küçük modellerimizden biridir.

Örnek Alınan Makale: https://arxiv.org/abs/2405.09673

Model Mimarisi

Temel Model: Llama 3.1 8B

Temel Model İnce Ayar Veri Boyutu: ~1 milyar yüksek kaliteli Türkçe metin birimi

Komut Eğitimi Veri Boyutu: 200 bin Türkçe komut seti

Eğitim Bilgileri

Eğitim sonucu istatistikleri:

  • Kayıp: 0.996

  • Eğitimi Süresi: (~24 saat)

  • Epoch: 1.0

Lora Yapılandırması:

  • r = 128
  • lora_alpha = 32
  • learning_rate = 5e-5

Kullanım

Fikri, esas olarak Türkçe metin anlama ve üretim gerektiren görevler için tasarlanmıştır. Basit konfigürasyonu ve optimize edilmiş eğitim verisi, metin üretimi tabanlı yapay zeka uygulamalarından metin özetlemeye kadar çeşitli uygulamalarda Türkçe dilinin inceliklerine uygun ve verimli kullanım sağlar.

Teşekkür

Fikri, Türkçe dil ve kültüründe yapay zekanın yeteneklerinin geliştirilmesi amacıyle üretilmiş, sınırlı Türkçe kaynağın arttırılmasına yönelik bir modeldir. Sorularınız, geri bildirimleriniz veya destek talepleriniz için geliştirme ekibimize ulaşmaktan çekinmeyin.

Brew Interactive/AI Guild https://brewww.com


EN

Model Overview

Model Name: Fikri

Model Type: Language Model

Language: Turkish

Model Size: 8B parameters

Base Model: Llama 3.1

Development Hardware: 2x NVIDIA RTX 4090 GPU

Description:

Fikri, meaning "intellectual" or "of thought" in Turkish. This model is the first and lightest in our lineup, fine-tuned specifically for low-stream Turkish tasks.

Influencing Paper: LoRA Learns Less and Forgets Less

Model Architecture

Base Model: Llama 3.1 8B 

Base Model Fine-tuning Data Size: ~1B tokens of high-quality Turkish data 

Instruction Training Data Size: 200k Turkish instructions

Training Information

Fikri was trained with the following statistics and configuration:

  • Training Loss: 0.996
  • Instruction Training Runtime: (~24 hours)
  • Epochs: 1.0

Lora Configuration:

  • r = 128
  • lora_alpha = 32
  • learning_rate = 5e-5

Usage

Fikri is primarily designed for tasks requiring understanding and generation of Turkish text. Its light configuration and optimized training data make it suitable for various applications, from conversational AI to text summarization, while maintaining efficiency and relevance to Turkish language nuances.

Acknowledgments

Fikri is a testimony to collaborative innovation, inspired by cutting-edge research and dedicated to advancing the capabilities of artificial intelligence in the Turkish language.

If you have any questions, feedback, or need support, feel free to reach out to our development team.

Brew Interactive/AI Guild https://brewww.com

Downloads last month
2,771
Safetensors
Model size
8.03B params
Tensor type
BF16
·
Inference Examples
Unable to determine this model's library. Check the docs .

Model tree for BrewInteractive/fikri-3.1-8B-Instruct

Finetuned
(545)
this model
Quantizations
1 model

Dataset used to train BrewInteractive/fikri-3.1-8B-Instruct