Update README.md
Browse files
README.md
CHANGED
|
@@ -24,9 +24,9 @@ pipeline_tag: text-generation
|
|
| 24 |
library_name: transformers
|
| 25 |
---
|
| 26 |
|
| 27 |
-
# SykoLLM-V5.
|
| 28 |
|
| 29 |
-
**SykoLLM-V5.
|
| 30 |
|
| 31 |
---
|
| 32 |
|
|
@@ -43,8 +43,8 @@ library_name: transformers
|
|
| 43 |
| Maksimum Bağlam | 1024 Token |
|
| 44 |
| Aktivasyon Fonksiyonu | SiLU |
|
| 45 |
| Eğitim Adımı | ~3.500 Step |
|
| 46 |
-
| Yaklaşık Eğitim Örneği | ~1.
|
| 47 |
-
| Yaklaşık Eğitim Token'ı | ~1.
|
| 48 |
| Eğitim Donanımı | 2x NVIDIA Tesla T4 |
|
| 49 |
|
| 50 |
---
|
|
@@ -106,7 +106,7 @@ pip install transformers torch
|
|
| 106 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
| 107 |
import torch
|
| 108 |
|
| 109 |
-
model_id = "SykoSLM/SykoLLM-V5.
|
| 110 |
|
| 111 |
tokenizer = AutoTokenizer.from_pretrained(model_id, trust_remote_code=True)
|
| 112 |
model = AutoModelForCausalLM.from_pretrained(
|
|
@@ -171,9 +171,9 @@ Bu model Apache 2.0 lisansı altında yayınlanmıştır.
|
|
| 171 |
## Alıntı
|
| 172 |
|
| 173 |
```bibtex
|
| 174 |
-
@misc{sykollm-v5.
|
| 175 |
author = {SykoSLM},
|
| 176 |
-
title = {SykoLLM-V5.
|
| 177 |
year = {2025},
|
| 178 |
publisher = {HuggingFace},
|
| 179 |
url = {https://huggingface.co/SykoSLM/SykoLLM-V5.8-Mini}
|
|
|
|
| 24 |
library_name: transformers
|
| 25 |
---
|
| 26 |
|
| 27 |
+
# SykoLLM-V5.9-Mini
|
| 28 |
|
| 29 |
+
**SykoLLM-V5.9-Mini, sıfırdan (from scratch)** eğitilmiş, Türkçe ve İngilizce destekli, kod anlama kapasitesine sahip **SykoLLM** ailesinin **küçük** bir dil modelidir. **Phi-3 mimarisi** temel alınarak özel BPE tokenizer ile geliştirilmiştir.
|
| 30 |
|
| 31 |
---
|
| 32 |
|
|
|
|
| 43 |
| Maksimum Bağlam | 1024 Token |
|
| 44 |
| Aktivasyon Fonksiyonu | SiLU |
|
| 45 |
| Eğitim Adımı | ~3.500 Step |
|
| 46 |
+
| Yaklaşık Eğitim Örneği | ~1.500.000+ |
|
| 47 |
+
| Yaklaşık Eğitim Token'ı | ~1.500.000.000+ |
|
| 48 |
| Eğitim Donanımı | 2x NVIDIA Tesla T4 |
|
| 49 |
|
| 50 |
---
|
|
|
|
| 106 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
| 107 |
import torch
|
| 108 |
|
| 109 |
+
model_id = "SykoSLM/SykoLLM-V5.9-Mini"
|
| 110 |
|
| 111 |
tokenizer = AutoTokenizer.from_pretrained(model_id, trust_remote_code=True)
|
| 112 |
model = AutoModelForCausalLM.from_pretrained(
|
|
|
|
| 171 |
## Alıntı
|
| 172 |
|
| 173 |
```bibtex
|
| 174 |
+
@misc{sykollm-v5.9-mini-2025,
|
| 175 |
author = {SykoSLM},
|
| 176 |
+
title = {SykoLLM-V5.9-Mini: A Small Multilingual Causal Language Model Trained from Scratch},
|
| 177 |
year = {2025},
|
| 178 |
publisher = {HuggingFace},
|
| 179 |
url = {https://huggingface.co/SykoSLM/SykoLLM-V5.8-Mini}
|