File size: 3,024 Bytes
281cddd
0be1bd2
 
 
 
 
 
 
 
 
 
00a9ac8
 
ca3063b
00a9ac8
 
 
 
ca3063b
 
0396b5a
 
281cddd
 
00a9ac8
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
b29c04f
 
 
 
06c7318
 
 
b29c04f
 
43801ff
 
 
 
 
 
f4d9ce1
 
 
b29c04f
00a9ac8
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
---
widget:
  - text: "ahmet elbir nasıl ders anlatır"
    example_title: "Ahmet Hoca"
  - text: "mehmet fatih amasyalı'nın ders anlatımı nasıldır"
    example_title: "Fatih Hoca"
  - text: "banu diri'nin ders anlatımı nasıldır"
    example_title: "Banu Hoca"
  - text: "burak hoca öğrencilerle nasıl anlaşır"
    example_title: "Burak Hoca"
    
language:
- tr
license: mit
tags:
- Turkish
- turkish
- gpt2
datasets:
- uonlp/CulturaX
pipeline_tag: text-generation
base_model: ytu-ce-cosmos/turkish-gpt2-medium
---

# turkish-gpt2-medium-ytu-ce

This is a fine-tuned version of the ytu-ce-cosmos/turkish-gpt2-medium model for Yıldız Technical University Computer Engineering Department. Can answer specific questions about faculty members and courses. As the dataset grows, it will give better results.

## Example Usage
```python
from transformers import AutoTokenizer, GPT2LMHeadModel
from transformers import pipeline

def generate_text(model,prompt_text, max_length=100):
        encoded_input = tokenizer.encode(prompt_text, return_tensors='pt', padding=True, truncation=True, max_length=max_length).to(device)

        output_sequences = model.generate(
            input_ids=encoded_input,
            max_length=max_length + 20,
            temperature=1.0,
            top_k=50,
            top_p=0.95,
            repetition_penalty=1.2,
            do_sample=True,
            num_return_sequences=1
        )

        generated_text = tokenizer.decode(output_sequences[0], skip_special_tokens=True)
        return generated_text.replace(prompt_text, "")
tokenizer = AutoTokenizer.from_pretrained("kayrab/turkish-gpt2-medium-ytu-ce")
model = AutoModelForCausalLM.from_pretrained("kayrab/turkish-gpt2-medium-ytu-ce")
model.to(device)
while True:
    prompt = input("Soru: ")
    if prompt.lower() == "q":
        break
    prompt = f"{tokenizer.additional_special_tokens[0]} {prompt} {tokenizer.additional_special_tokens[1]}"
    generated_text = generate_text(model, prompt)
    print("Cevap:", generated_text)

"""
Soru: Mehmet Fatih Amasyalı'nın ders anlatımı nasıldır
Cevap: dersleri güzel anlatır ve anlattığı konuların gerçek hayat ve sektördeki uygulamaları hakkında bilgi verir

Soru: Mehmet Fatih Amasyalı'nın ders anlatımı nasıldır
Cevap: bilim aşkıyla yanıp tutuşan bir hoca olarak verdiği derslerde işin bilimsel mantığını öğretir ve sınavları kalitelidir

Soru: Banu Diri'nin ders anlatımı nasıldır
Cevap: dersleri çok eğlenceli anlatır öğrenciler tarafından tavsiye edilir

Soru: Burak hoca öğrencilerle nasıl anlaşır
Cevap: öğrencilere yardım etmekte istekli ve güler yüzlüdür en iyi araştırma görevlisi olarak öne çıkar

Soru: ahmet elbir nasıl ders anlatır
Cevap: dersi öğretmek için ekstra gayret gösterir ve öğrencilerin öğrenmesini önemser

Soru: Burak hoca öğrencilerle nasıl anlaşır
Cevap: öğrencilerle en iyi empati yapan hocalardan biridir her konuda yardımcı olmaya çalışır
"""

```