GenzNepal commited on
Commit
3720901
1 Parent(s): 8196e09

Update Readme.md #0

Browse files
Files changed (1) hide show
  1. README.md +47 -7
README.md CHANGED
@@ -2,9 +2,13 @@
2
  license: apache-2.0
3
  tags:
4
  - generated_from_trainer
 
 
5
  model-index:
6
  - name: mt5-summarize-nepali
7
  results: []
 
 
8
  ---
9
 
10
  <!-- This model card has been generated automatically according to the information the Trainer had access to. You
@@ -16,17 +20,53 @@ This model is a fine-tuned version of [google/mt5-small](https://huggingface.co/
16
  It achieves the following results on the evaluation set:
17
  - Loss: 0.6748
18
 
19
- ## Model description
 
20
 
21
- More information needed
22
 
23
- ## Intended uses & limitations
24
 
25
- More information needed
 
26
 
27
- ## Training and evaluation data
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
28
 
29
- More information needed
30
 
31
  ## Training procedure
32
 
@@ -58,4 +98,4 @@ The following hyperparameters were used during training:
58
  - Transformers 4.30.1
59
  - Pytorch 2.0.0
60
  - Datasets 2.1.0
61
- - Tokenizers 0.13.3
 
2
  license: apache-2.0
3
  tags:
4
  - generated_from_trainer
5
+ - summarization
6
+ - nepali
7
  model-index:
8
  - name: mt5-summarize-nepali
9
  results: []
10
+ language:
11
+ - ne
12
  ---
13
 
14
  <!-- This model card has been generated automatically according to the information the Trainer had access to. You
 
20
  It achieves the following results on the evaluation set:
21
  - Loss: 0.6748
22
 
23
+ ## Usage
24
+ ```python
25
 
26
+ >>> import torch
27
 
28
+ >>> from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
29
 
30
+ # Predict with test data (first 5 rows)
31
+ >>> model_ckpt = "GenzNepal/mt5-summarize-nepali"
32
 
33
+ >>> device = "cuda" if torch.cuda.is_available() else "cpu"
34
+
35
+ >>> t5_tokenizer = AutoTokenizer.from_pretrained(model_ckpt)
36
+
37
+ >>> model = AutoModelForSeq2SeqLM.from_pretrained(model_ckpt).to(device)
38
+
39
+
40
+ >>> text = "काठमाडौँ । हाल देशको पूर्वी तथा मध्य भू–भागमा मनसुनी प्रणालीको प्रभाव रहेको छ भने बाँकी भू–भागमा स्थानीय वायु र पश्चिमी वायुको आंशिक प्रभाव रहेको छ । यसका कारण हाल गण्डकी प्रदेशका थोरै स्थानमा र कर्णाली प्रदेशका एक–दुई स्थानमा मेघगर्जनरचट्याङसहित हल्कादेखि मध्यम वर्षा भइरहेको जल तथा मौसम विज्ञान विभाग, मौसम पूर्वानुमान महाशाखाले जनाएको छ । \
41
+ महाशाखका मौमसविद् रोजल लामिछानेका अनुसार पछिल्लो तीन घन्टामा गण्डकी प्रदेशका थोरै स्थान, बागमती प्रदेशका एक–दुई स्थानमा हल्कादेखि मध्यम वर्षा भइरहेको छ । काठमाडौँ उपत्यकासहित बागमती प्रदेशमा रातिको समयमा वर्षाको सम्भावना रहेको छ । यस्तै कोशी प्रदेश, मधेश प्रदेश र देशका पहाडी भू–भागमा बदली रहनुका साथै हल्का वर्षाको सम्भावना रहेको महाशाखाले उल्लेख गरेको छ । \
42
+ मौसमविद् लामिछानेले मनसुन प्रणाली क्रमिकरूपमा देशभर फैलिने क्रममा रहेको र यो देशभर विस्तार हुन अझै एक साता लाग्ने बताए । गत जेठ ३१ गते बुधबार नेपालको पूर्वी भेग भएर मनसुन प्रणाली भित्रिएको थियो । मनसुन सुस्तगतिमा रहेकाले देशको पश्चिम क्षेत्रमा फैलिन केही दिन लाग्ने जनाइएको छ ।"
43
+
44
+ >>> inputs = t5_tokenizer(text, return_tensors="pt", max_length=1024, padding= "max_length", truncation=True, add_special_tokens=True)
45
+
46
+ >>> generation = model.generate(
47
+ input_ids = inputs['input_ids'].to(device),
48
+ attention_mask=inputs['attention_mask'].to(device),
49
+ num_beams=6,
50
+ num_return_sequences=1,
51
+ no_repeat_ngram_size=2,
52
+ repetition_penalty=1.0,
53
+ min_length=100,
54
+ max_length=250,
55
+ length_penalty=2.0,
56
+ early_stopping=True
57
+ )
58
+ # # Convert id tokens to text
59
+
60
+ >>> output = t5_tokenizer.decode(generation[0], skip_special_tokens=True, clean_up_tokenization_spaces=True)
61
+
62
+
63
+ >>> print(output)
64
+
65
+ "हाल देशको पूर्वी तथा मध्य भू–भागमा मनसुनी प्रणालीको प्रभाव रहेको छ । बाँकी भूभागहरूमा स्थानीय वायु र पश्चिमी वायुको आंशिक सङ्क्रमण छ। गत वैशाख ३१ गते बुधबार नेपालको भेग भएर मनसुन प्रणाली भित्रिएको थियो भने हल्कादेखि मध्यम वर्षा भइरहेको जनाइएको छ भने मौसमविद् लामिछानेले उल्लेख गरेका छन् भने यो देशभर विस्तार हुन अझै एक साता लाग्नेछ।
66
+ "
67
+
68
+ ```
69
 
 
70
 
71
  ## Training procedure
72
 
 
98
  - Transformers 4.30.1
99
  - Pytorch 2.0.0
100
  - Datasets 2.1.0
101
+ - Tokenizers 0.13.3