SykoSLM commited on
Commit
3e38cce
·
verified ·
1 Parent(s): 27a9f61

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +7 -7
README.md CHANGED
@@ -24,9 +24,9 @@ pipeline_tag: text-generation
24
  library_name: transformers
25
  ---
26
 
27
- # SykoLLM-V5.8-Mini
28
 
29
- **SykoLLM-V5.8-Mini, sıfırdan (from scratch)** eğitilmiş, Türkçe ve İngilizce destekli, kod anlama kapasitesine sahip **SykoLLM** ailesinin **küçük** bir dil modelidir. **Phi-3 mimarisi** temel alınarak özel BPE tokenizer ile geliştirilmiştir.
30
 
31
  ---
32
 
@@ -43,8 +43,8 @@ library_name: transformers
43
  | Maksimum Bağlam | 1024 Token |
44
  | Aktivasyon Fonksiyonu | SiLU |
45
  | Eğitim Adımı | ~3.500 Step |
46
- | Yaklaşık Eğitim Örneği | ~1.000.000+ |
47
- | Yaklaşık Eğitim Token'ı | ~1.000.000.000+ |
48
  | Eğitim Donanımı | 2x NVIDIA Tesla T4 |
49
 
50
  ---
@@ -106,7 +106,7 @@ pip install transformers torch
106
  from transformers import AutoModelForCausalLM, AutoTokenizer
107
  import torch
108
 
109
- model_id = "SykoSLM/SykoLLM-V5.8-Mini"
110
 
111
  tokenizer = AutoTokenizer.from_pretrained(model_id, trust_remote_code=True)
112
  model = AutoModelForCausalLM.from_pretrained(
@@ -171,9 +171,9 @@ Bu model Apache 2.0 lisansı altında yayınlanmıştır.
171
  ## Alıntı
172
 
173
  ```bibtex
174
- @misc{sykollm-v5.8-mini-2025,
175
  author = {SykoSLM},
176
- title = {SykoLLM-V5.8-Mini: A Small Multilingual Causal Language Model Trained from Scratch},
177
  year = {2025},
178
  publisher = {HuggingFace},
179
  url = {https://huggingface.co/SykoSLM/SykoLLM-V5.8-Mini}
 
24
  library_name: transformers
25
  ---
26
 
27
+ # SykoLLM-V5.9-Mini
28
 
29
+ **SykoLLM-V5.9-Mini, sıfırdan (from scratch)** eğitilmiş, Türkçe ve İngilizce destekli, kod anlama kapasitesine sahip **SykoLLM** ailesinin **küçük** bir dil modelidir. **Phi-3 mimarisi** temel alınarak özel BPE tokenizer ile geliştirilmiştir.
30
 
31
  ---
32
 
 
43
  | Maksimum Bağlam | 1024 Token |
44
  | Aktivasyon Fonksiyonu | SiLU |
45
  | Eğitim Adımı | ~3.500 Step |
46
+ | Yaklaşık Eğitim Örneği | ~1.500.000+ |
47
+ | Yaklaşık Eğitim Token'ı | ~1.500.000.000+ |
48
  | Eğitim Donanımı | 2x NVIDIA Tesla T4 |
49
 
50
  ---
 
106
  from transformers import AutoModelForCausalLM, AutoTokenizer
107
  import torch
108
 
109
+ model_id = "SykoSLM/SykoLLM-V5.9-Mini"
110
 
111
  tokenizer = AutoTokenizer.from_pretrained(model_id, trust_remote_code=True)
112
  model = AutoModelForCausalLM.from_pretrained(
 
171
  ## Alıntı
172
 
173
  ```bibtex
174
+ @misc{sykollm-v5.9-mini-2025,
175
  author = {SykoSLM},
176
+ title = {SykoLLM-V5.9-Mini: A Small Multilingual Causal Language Model Trained from Scratch},
177
  year = {2025},
178
  publisher = {HuggingFace},
179
  url = {https://huggingface.co/SykoSLM/SykoLLM-V5.8-Mini}