File size: 2,368 Bytes
ee617a9 4fd8c97 28b6690 ee617a9 fcf0f40 463813d aaf0c57 7a338f0 463813d 7a338f0 ed3f18c 7a338f0 ed3f18c f014784 fcf0f40 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 |
---
license: other
base_model: Qwen/Qwen1.5-7B-Chat
datasets:
- TFLai/Turkish-Alpaca
language:
- tr
tags:
- axolotl
---
# Qwen1.5-7B Turkish LoRA
![image/png](https://cdn-uploads.huggingface.co/production/uploads/65aa2d4b356bf23b4a4da247/xPjcOc8m5618Idr0OuQfW.png)
Orijinal model: [Qwen1.5-7B-chat](https://huggingface.co/Qwen/Qwen1.5-7B-Chat)
## Açıklama
Bu model, Alibaba Cloud tarafından geliştirilen Qwen1.5-7B-chat modelinin, TFLai/Turkish-Alpaca veri seti ve LoRA tekniği kullanılarak ince ayar çekilmiş versiyonudur.
## Örnek diyalog
**Sistem mesajı:** Sen yardımsever bir asistansın.
**İstem:** DNA'nın ne olduğunu kısaca açıkla.
**Yanıt:** DNA, Dünya'da yaşam için temel olan bir molekül türüdür ve genetik bilginin kodlaması için kullanılır. Genetik bilgiyi taşıyan çift sarmallı bir molekül olarak düşünülebilir. Her canlı organizmanın DNA'sı farklıdır, ancak her ikisi de aynı talimatları içeren benzersiz bir kimlik kodu içerir. DNA ayrıca hücrelerdeki protein üretimini yönlendiren en önemli moleküldür.
## Kullanım
Modeli aşağıdaki düğmeye tıklayarak Google Colab'de çalıştırabilirsiniz.
[![image/svg](https://colab.research.google.com/assets/colab-badge.svg)](https://colab.research.google.com/drive/1jrQcDcssnIo39KvnGGM6MJVqYcklQwGI?usp=sharing)
---
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
device = "cuda" # the device to load the model onto
model = AutoModelForCausalLM.from_pretrained(
"sayhan/Qwen1.5-7B-turkish-lora",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained("sayhan/Qwen1.5-7B-turkish-lora")
prompt = "DNA'nın ne olduğunu kısaca açıkla." # "İsteminizi buraya girin"
messages = [
{"role": "system", "content": "Sen yardımsever bir asistansın."},
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(device)
generated_ids = model.generate(
model_inputs.input_ids,
max_new_tokens=512
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
print(response) # Cevabı görüntüleyin
``` |