This QLoRA was trained for 0.25 epochs on TinyLlama 1.1B with Merve's Turkish_instructions dataset. It aims to take advantage of TinyLlama's huge token count.
It is exceptionally bad (due to low amount of training), but it can consistently produce meaningful words and rarely form coherent sentences in Turkish.
You can use the default template for TinyLlama.
Bu QLoRA Merve'nin Turkish_instructions veri setiyle 0.25 epoch eğitildi. TinyLlama'nın yüksek token sayısından yararlanmayı amaçlamaktadır.
Sonuçlar kötü (daha fazla eğitim gerek) ama kelime boyutunda anlamlı sonuçlar verip bazen anlamlı Türkçe cümleler kurabiliyor.
TinyLlama chat şablonuyla kullanabilirsiniz.