haruyuu commited on
Commit
46aca70
1 Parent(s): c4c3ce4

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +25 -0
README.md CHANGED
@@ -54,6 +54,31 @@ translated_text = tokenizer.decode(translated_ids[0], skip_special_tokens=True)
54
  print("Vietnamese Translation:", translated_text) # 'Ai biết, nửa đêm về nhà phát hiện ra mình quên chìa khóa, trong nhà không có ai, lúc này nguyện vọng lớn nhất của ngươi là gì? Đáp án chính xác là gì?'
55
  print("\nTruth:", truth) # 'Ai biết nửa đêm về nhà phát hiện mình quên chìa khoá , trong nhà lại không có ai thì lúc này muốn nhất là cái gì ? Câu trả lời là gì thế anh em ?'
56
  ```
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
57
  ## Training Data
58
 
59
  <!-- This should link to a Data Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
 
54
  print("Vietnamese Translation:", translated_text) # 'Ai biết, nửa đêm về nhà phát hiện ra mình quên chìa khóa, trong nhà không có ai, lúc này nguyện vọng lớn nhất của ngươi là gì? Đáp án chính xác là gì?'
55
  print("\nTruth:", truth) # 'Ai biết nửa đêm về nhà phát hiện mình quên chìa khoá , trong nhà lại không có ai thì lúc này muốn nhất là cái gì ? Câu trả lời là gì thế anh em ?'
56
  ```
57
+
58
+ ### Faster inference on OnnxT5 model
59
+ ```python
60
+ from fastT5 import get_onnx_runtime_sessions, OnnxT5
61
+ from transformers import T5Config, AutoTokenizer, T5ForConditionalGeneration
62
+
63
+ quant_model_paths= tuple(['viT5_han-vie_v1-encoder-quantized.onnx',
64
+ 'viT5_han-vie_v1-decoder-quantized.onnx',
65
+ 'viT5_han-vie_v1-init-decoder-quantized.onnx'])
66
+
67
+ model_sessions = get_onnx_runtime_sessions(quant_model_paths)
68
+ model = OnnxT5('haruyuu/viT5_han-vie_v1.1', model_sessions)
69
+
70
+ input_text = mapping('谁知道 “ 你三更半夜回家发现自己忘记带钥匙,家里又没有其他人在,这时你最大的愿望是什么? ” 的正确答案是什么呀?')
71
+ input_ids = tokenizer.encode(input_text, return_tensors="pt")
72
+ translated_ids = onnx_model.generate(input_ids,
73
+ num_beams = 6,
74
+ max_length = 512,
75
+ bad_words_ids = [[6270]])
76
+ translated_text = tokenizer.decode(translated_ids[0], skip_special_tokens=True)
77
+
78
+ print("Vietnamese Translation:", translated_text) # 'Ai biết, nửa đêm về nhà phát hiện ra mình quên chìa khóa, trong nhà không có ai, lúc này nguyện vọng lớn nhất của ngươi là gì? Đáp án chính xác là gì?'
79
+ print("\nTruth:", truth) # 'Ai biết nửa đêm về nhà phát hiện mình quên chìa khoá , trong nhà lại không có ai thì lúc này muốn nhất là cái gì ? Câu trả lời là gì thế anh em ?'
80
+ ```
81
+
82
  ## Training Data
83
 
84
  <!-- This should link to a Data Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->