darrinka commited on
Commit
6bf7bd6
1 Parent(s): 75e6b4e

Update README.md

Browse files

The variable for the prefix has been removed, since the prefix is already in the text.

Files changed (1) hide show
  1. README.md +3 -3
README.md CHANGED
@@ -38,7 +38,7 @@ model.to(device)
38
 
39
  #Prefix <LM>
40
  lm_text='<LM>Принялся Кутузов рассказывать свою историю как он сюда попал. Началось'
41
- input_ids=torch.tensor([tokenizer.encode(prefix_LM+lm_text)]).to(device)
42
  outputs=model.generate(input_ids,eos_token_id=tokenizer.eos_token_id,early_stopping=True)
43
  print(tokenizer.decode(outputs[0][1:]))
44
 
@@ -46,7 +46,7 @@ print(tokenizer.decode(outputs[0][1:]))
46
 
47
  #Prefix <SC1>
48
  lm_text='<SC1>Принялся Кутузов рассказывать свою историю <extra_id_0>. Началось с того, что он был в армии, служил в артиллерии.'
49
- input_ids=torch.tensor([tokenizer.encode(prefix_LM+lm_text)]).to(device)
50
  outputs=model.generate(input_ids,eos_token_id=tokenizer.eos_token_id,early_stopping=True)
51
  print(tokenizer.decode(outputs[0][1:]))
52
 
@@ -54,7 +54,7 @@ print(tokenizer.decode(outputs[0][1:]))
54
 
55
  # Prefix <SC5>
56
  lm_text='<SC5>Принялся Кутузов рассказывать свою историю <extra_id_0>. Началось с того, что он был в армии, служил в артиллерии.'
57
- input_ids=torch.tensor([tokenizer.encode(prefix_LM+lm_text)]).to(device)
58
  outputs=model.generate(input_ids,eos_token_id=tokenizer.eos_token_id,early_stopping=True)
59
  tokenizer.decode(outputs[0][1:])
60
 
 
38
 
39
  #Prefix <LM>
40
  lm_text='<LM>Принялся Кутузов рассказывать свою историю как он сюда попал. Началось'
41
+ input_ids=torch.tensor([tokenizer.encode(lm_text)]).to(device)
42
  outputs=model.generate(input_ids,eos_token_id=tokenizer.eos_token_id,early_stopping=True)
43
  print(tokenizer.decode(outputs[0][1:]))
44
 
 
46
 
47
  #Prefix <SC1>
48
  lm_text='<SC1>Принялся Кутузов рассказывать свою историю <extra_id_0>. Началось с того, что он был в армии, служил в артиллерии.'
49
+ input_ids=torch.tensor([tokenizer.encode(lm_text)]).to(device)
50
  outputs=model.generate(input_ids,eos_token_id=tokenizer.eos_token_id,early_stopping=True)
51
  print(tokenizer.decode(outputs[0][1:]))
52
 
 
54
 
55
  # Prefix <SC5>
56
  lm_text='<SC5>Принялся Кутузов рассказывать свою историю <extra_id_0>. Началось с того, что он был в армии, служил в артиллерии.'
57
+ input_ids=torch.tensor([tokenizer.encode(lm_text)]).to(device)
58
  outputs=model.generate(input_ids,eos_token_id=tokenizer.eos_token_id,early_stopping=True)
59
  tokenizer.decode(outputs[0][1:])
60