Chemsseddine commited on
Commit
7643074
·
1 Parent(s): 5d366da

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +23 -7
app.py CHANGED
@@ -2,19 +2,23 @@ from transformers import RobertaTokenizerFast, EncoderDecoderModel
2
  import torch
3
  #initialisation de tokenizer
4
  device = "cuda" if torch.cuda.is_available() else "cpu"
5
- tokenizer = RobertaTokenizerFast.from_pretrained("Chemsseddine/bert2gpt2SUMM-finetuned-mlsum-finetuned-mlorange_sum")
6
  #aider les token special
7
  tokenizer.bos_token = tokenizer.cls_token
8
  tokenizer.eos_token = tokenizer.sep_token
9
  #initialisation du modele
10
- model = EncoderDecoderModel.from_pretrained("Chemsseddine/bert2gpt2SUMM-finetuned-mlsum-finetuned-mlorange_sum").to(device)
11
  #tf.random.set_seed(0)
12
  # generate summary
13
  def generateSumm(input_texte,max,min):
14
  # encoder le texte entrée
15
- input_ids = tokenizer.encode(input_texte, return_tensors='pt')
16
- #generation de resume a l'aide de texte encodé
17
- summary_ids = model.generate(input_ids,#le texte encodé
 
 
 
 
18
  max_length=max,#la longuer maximale du sequence de sortie
19
  min_length=min,#la longuer minimum du sequence de sortie
20
 
@@ -30,8 +34,20 @@ def generateSumm(input_texte,max,min):
30
  top_k = 50,
31
  top_p = 0.95)
32
  #decodé la sequence de generé par le modele
33
- summary_text = tokenizer.decode(summary_ids[0], skip_special_tokens=True)
34
- return summary_text
 
 
 
 
 
 
 
 
 
 
 
 
35
 
36
  from difflib import Differ
37
  import gradio as gr
 
2
  import torch
3
  #initialisation de tokenizer
4
  device = "cuda" if torch.cuda.is_available() else "cpu"
5
+ tokenizer = RobertaTokenizerFast.from_pretrained("Chemsseddine/bert2gpt2SUMM-finetuned-mlsum")
6
  #aider les token special
7
  tokenizer.bos_token = tokenizer.cls_token
8
  tokenizer.eos_token = tokenizer.sep_token
9
  #initialisation du modele
10
+ model = EncoderDecoderModel.from_pretrained("Chemsseddine/bert2gpt2SUMM-finetuned-mlsum").to(device)
11
  #tf.random.set_seed(0)
12
  # generate summary
13
  def generateSumm(input_texte,max,min):
14
  # encoder le texte entrée
15
+ if input_texte and input_texte.strip():
16
+ if min<len(input_texte):
17
+
18
+ if max>min:
19
+ input_ids = tokenizer.encode(input_texte, return_tensors='pt')
20
+ #generation de resume a l'aide de texte encodé
21
+ summary_ids = model.generate(input_ids,#le texte encodé
22
  max_length=max,#la longuer maximale du sequence de sortie
23
  min_length=min,#la longuer minimum du sequence de sortie
24
 
 
34
  top_k = 50,
35
  top_p = 0.95)
36
  #decodé la sequence de generé par le modele
37
+ summary_text = tokenizer.decode(summary_ids[0], skip_special_tokens=True)
38
+ return summary_text
39
+ else:
40
+
41
+ summary_text="La longueur minimale est grande que la maximale"
42
+ return summary_text
43
+ else:
44
+ summary_text="La longueur de texte entré est inferieur que la minimale que vous avez choisis"
45
+ return summary_text
46
+
47
+ else :
48
+ summary_text="Entrer votre Texte S'il vous plait"
49
+ return summary_text
50
+
51
 
52
  from difflib import Differ
53
  import gradio as gr