ilhami commited on
Commit
be31289
1 Parent(s): 6fabed4

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +20 -16
README.md CHANGED
@@ -1,24 +1,26 @@
1
- ---
2
- license: apache-2.0
3
- datasets:
4
- - wmt/wmt17
5
- language:
6
- - tr
7
- - en
8
- metrics:
9
- - bleu
10
- pipeline_tag: translation
11
- tags:
12
- - chemistry
13
- - biology
14
- - medical
15
- ---
16
 
17
 
18
  checkpoint = "ilhami/AcademicTranslation2024-tr-to-en"
 
19
  from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
 
20
  tokenizer = AutoTokenizer.from_pretrained(checkpoint)
 
21
  model = AutoModelForSeq2SeqLM.from_pretrained(checkpoint).to("cuda")
 
22
  tr= ["Sohbet robotları son yıllarda yaygın bir şekilde kullanılmaya başlanmıştır. ",
23
  "İnsanları taklit eden ve daha iyi müşteri memnuniyeti sağlayan sohbet robotları en gelişkin doğal dil işleme tekniklerine ihtiyaç duymaktadır. ",
24
  "Bu çalışma sohbet robotu konuşmalarının niyet tahminini geliştirmeye odaklanmıştır." ,
@@ -27,7 +29,9 @@ tr= ["Sohbet robotları son yıllarda yaygın bir şekilde kullanılmaya başlan
27
  "Bu çalışmanın sonunda, BERT ve BERT ile TF-IDF birleşimi modellerin diğer kombinasyonlardan daha iyi sonuç verdiği görülmüştür. ",
28
  "BERT gibi ön eğitimli modellerden faydalanmanın daha iyi bağlamsal anlama sağladığı ortaya çıkmıştır. ",
29
  "TF-IDF yerleştirmeleri, BERT gösterimi ile birleştirilerek niyet kategorisi tahmininin iyileştirilmesi amaçlanmıştır."]
 
30
  encoded_text = tokenizer(tr, return_tensors="pt", padding = True).to("cuda")
 
31
  generated_tokens = model.generate(**encoded_text)
32
- en = tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
33
 
 
 
1
+ ---
2
+ license: apache-2.0
3
+ language:
4
+ - tr
5
+ - en
6
+ metrics:
7
+ - bleu
8
+ pipeline_tag: translation
9
+ tags:
10
+ - chemistry
11
+ - biology
12
+ - medical
13
+ ---
 
 
14
 
15
 
16
  checkpoint = "ilhami/AcademicTranslation2024-tr-to-en"
17
+
18
  from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
19
+
20
  tokenizer = AutoTokenizer.from_pretrained(checkpoint)
21
+
22
  model = AutoModelForSeq2SeqLM.from_pretrained(checkpoint).to("cuda")
23
+
24
  tr= ["Sohbet robotları son yıllarda yaygın bir şekilde kullanılmaya başlanmıştır. ",
25
  "İnsanları taklit eden ve daha iyi müşteri memnuniyeti sağlayan sohbet robotları en gelişkin doğal dil işleme tekniklerine ihtiyaç duymaktadır. ",
26
  "Bu çalışma sohbet robotu konuşmalarının niyet tahminini geliştirmeye odaklanmıştır." ,
 
29
  "Bu çalışmanın sonunda, BERT ve BERT ile TF-IDF birleşimi modellerin diğer kombinasyonlardan daha iyi sonuç verdiği görülmüştür. ",
30
  "BERT gibi ön eğitimli modellerden faydalanmanın daha iyi bağlamsal anlama sağladığı ortaya çıkmıştır. ",
31
  "TF-IDF yerleştirmeleri, BERT gösterimi ile birleştirilerek niyet kategorisi tahmininin iyileştirilmesi amaçlanmıştır."]
32
+
33
  encoded_text = tokenizer(tr, return_tensors="pt", padding = True).to("cuda")
34
+
35
  generated_tokens = model.generate(**encoded_text)
 
36
 
37
+ en = tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)