ai-forever commited on
Commit
8297fa4
1 Parent(s): 995354c

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +3 -3
README.md CHANGED
@@ -37,7 +37,7 @@ model.to(device)
37
 
38
  #Prefix <LM>
39
  lm_text='<LM>Принялся Кутузов рассказывать свою историю как он сюда попал. Началось'
40
- input_ids=torch.tensor([tokenizer.encode(prefix_LM+lm_text)]).to(device)
41
  outputs=model.generate(input_ids,eos_token_id=tokenizer.eos_token_id,early_stopping=True)
42
  print(tokenizer.decode(outputs[0][1:]))
43
 
@@ -45,7 +45,7 @@ print(tokenizer.decode(outputs[0][1:]))
45
 
46
  #Prefix <SC1>
47
  lm_text='<SC1>Принялся Кутузов рассказывать свою историю <extra_id_0>. Началось с того, что он был в армии, служил в артиллерии.'
48
- input_ids=torch.tensor([tokenizer.encode(prefix_LM+lm_text)]).to(device)
49
  outputs=model.generate(input_ids,eos_token_id=tokenizer.eos_token_id,early_stopping=True)
50
  print(tokenizer.decode(outputs[0][1:]))
51
 
@@ -53,7 +53,7 @@ print(tokenizer.decode(outputs[0][1:]))
53
 
54
  # Prefix <SC5>
55
  lm_text='<SC5>Принялся Кутузов рассказывать свою историю <extra_id_0>. Началось с того, что он был в армии, служил в артиллерии.'
56
- input_ids=torch.tensor([tokenizer.encode(prefix_LM+lm_text)]).to(device)
57
  outputs=model.generate(input_ids,eos_token_id=tokenizer.eos_token_id,early_stopping=True,max_length=100)
58
  print(tokenizer.decode(outputs[0][1:]))
59
 
 
37
 
38
  #Prefix <LM>
39
  lm_text='<LM>Принялся Кутузов рассказывать свою историю как он сюда попал. Началось'
40
+ input_ids=torch.tensor([tokenizer.encode(lm_text)]).to(device)
41
  outputs=model.generate(input_ids,eos_token_id=tokenizer.eos_token_id,early_stopping=True)
42
  print(tokenizer.decode(outputs[0][1:]))
43
 
 
45
 
46
  #Prefix <SC1>
47
  lm_text='<SC1>Принялся Кутузов рассказывать свою историю <extra_id_0>. Началось с того, что он был в армии, служил в артиллерии.'
48
+ input_ids=torch.tensor([tokenizer.encode(lm_text)]).to(device)
49
  outputs=model.generate(input_ids,eos_token_id=tokenizer.eos_token_id,early_stopping=True)
50
  print(tokenizer.decode(outputs[0][1:]))
51
 
 
53
 
54
  # Prefix <SC5>
55
  lm_text='<SC5>Принялся Кутузов рассказывать свою историю <extra_id_0>. Началось с того, что он был в армии, служил в артиллерии.'
56
+ input_ids=torch.tensor([tokenizer.encode(lm_text)]).to(device)
57
  outputs=model.generate(input_ids,eos_token_id=tokenizer.eos_token_id,early_stopping=True,max_length=100)
58
  print(tokenizer.decode(outputs[0][1:]))
59