ilhami commited on
Commit
ec914b5
1 Parent(s): d4221b0

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +11 -13
README.md CHANGED
@@ -12,23 +12,23 @@ metrics:
12
  - sacrebleu
13
  ---
14
 
15
- Turkish to English Machine Translation
16
 
17
- Dataset : Sel, İ. , Üzen, H. & Hanbay, D. (2021). Creating a Parallel Corpora for Turkish-English Academic Translations . Computer Science , 5th International Artificial Intelligence and Data Processing symposium , 335-340 . DOI: 10.53070/bbd.990959
18
 
19
- Transformer Based(6 Layer)
 
 
 
20
 
21
 
22
- //usage
23
 
24
- checkpoint2 = "ilhami/Tr_En_AcademicTranslation"
25
 
26
- from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
27
 
 
 
 
28
  tokenizer = AutoTokenizer.from_pretrained(checkpoint)
29
-
30
  model = AutoModelForSeq2SeqLM.from_pretrained(checkpoint).to("cuda")
31
-
32
  tr= ["Sohbet robotları son yıllarda yaygın bir şekilde kullanılmaya başlanmıştır. ",
33
  "İnsanları taklit eden ve daha iyi müşteri memnuniyeti sağlayan sohbet robotları en gelişkin doğal dil işleme tekniklerine ihtiyaç duymaktadır. ",
34
  "Bu çalışma sohbet robotu konuşmalarının niyet tahminini geliştirmeye odaklanmıştır." ,
@@ -37,12 +37,10 @@ tr= ["Sohbet robotları son yıllarda yaygın bir şekilde kullanılmaya başlan
37
  "Bu çalışmanın sonunda, BERT ve BERT ile TF-IDF birleşimi modellerin diğer kombinasyonlardan daha iyi sonuç verdiği görülmüştür. ",
38
  "BERT gibi ön eğitimli modellerden faydalanmanın daha iyi bağlamsal anlama sağladığı ortaya çıkmıştır. ",
39
  "TF-IDF yerleştirmeleri, BERT gösterimi ile birleştirilerek niyet kategorisi tahmininin iyileştirilmesi amaçlanmıştır."]
40
-
41
-
42
  encoded_text = tokenizer(tr, return_tensors="pt", padding = True).to("cuda")
43
-
44
-
45
  generated_tokens = model.generate(**encoded_text)
 
 
 
46
 
47
 
48
- en = tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
12
  - sacrebleu
13
  ---
14
 
 
15
 
16
+ ## Model Details
17
 
18
+ - **Developed by:** İlhami SEL
19
+ - **Model type:** Turkish-English Machine Translation -- Transformer Based(6 Layer)
20
+ - **Language:** Turkish - English
21
+ - **Resources for more information:** Sel, İ. , Üzen, H. & Hanbay, D. (2021). Creating a Parallel Corpora for Turkish-English Academic Translations . Computer Science , 5th International Artificial Intelligence and Data Processing symposium , 335-340 . DOI: 10.53070/bbd.990959
22
 
23
 
 
24
 
 
25
 
 
26
 
27
+ ```python
28
+ checkpoint = "ilhami/Tr_En_AcademicTranslation"
29
+ from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
30
  tokenizer = AutoTokenizer.from_pretrained(checkpoint)
 
31
  model = AutoModelForSeq2SeqLM.from_pretrained(checkpoint).to("cuda")
 
32
  tr= ["Sohbet robotları son yıllarda yaygın bir şekilde kullanılmaya başlanmıştır. ",
33
  "İnsanları taklit eden ve daha iyi müşteri memnuniyeti sağlayan sohbet robotları en gelişkin doğal dil işleme tekniklerine ihtiyaç duymaktadır. ",
34
  "Bu çalışma sohbet robotu konuşmalarının niyet tahminini geliştirmeye odaklanmıştır." ,
37
  "Bu çalışmanın sonunda, BERT ve BERT ile TF-IDF birleşimi modellerin diğer kombinasyonlardan daha iyi sonuç verdiği görülmüştür. ",
38
  "BERT gibi ön eğitimli modellerden faydalanmanın daha iyi bağlamsal anlama sağladığı ortaya çıkmıştır. ",
39
  "TF-IDF yerleştirmeleri, BERT gösterimi ile birleştirilerek niyet kategorisi tahmininin iyileştirilmesi amaçlanmıştır."]
 
 
40
  encoded_text = tokenizer(tr, return_tensors="pt", padding = True).to("cuda")
 
 
41
  generated_tokens = model.generate(**encoded_text)
42
+ en = tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
43
+ ```
44
+
45
 
46