Mustain commited on
Commit
aa3aa9b
1 Parent(s): 81dcbc3

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +4 -1
README.md CHANGED
@@ -46,6 +46,7 @@ if tokenizer.pad_token is None:
46
  tokenizer.pad_token = tokenizer.eos_token
47
 
48
  model.eval()
 
49
  # for MCQ set generation
50
 
51
  alpaca_prompt = """以下は、タスクを説明する指示と、さらに詳しいコンテキストを提供する入力を組み合わせたものです。要求を適切に完了する応答を記述してください。
@@ -73,8 +74,9 @@ inputs = tokenizer(
73
  from transformers import TextStreamer
74
  text_streamer = TextStreamer(tokenizer)
75
  _ = model.generate(**inputs, streamer = text_streamer, max_new_tokens = 1028)
76
- ```
77
  #for QA generation
 
78
  # Define the formatting function and the prompt template
79
  alpaca_prompt = """以下は質問です。質問に適切に答える回答を書いてください。
80
 
@@ -97,6 +99,7 @@ inputs = tokenizer(
97
  from transformers import TextStreamer
98
  text_streamer = TextStreamer(tokenizer)
99
  _ = model.generate(**inputs, streamer = text_streamer, max_new_tokens = 1028)
 
100
 
101
  ### Developers
102
 
 
46
  tokenizer.pad_token = tokenizer.eos_token
47
 
48
  model.eval()
49
+
50
  # for MCQ set generation
51
 
52
  alpaca_prompt = """以下は、タスクを説明する指示と、さらに詳しいコンテキストを提供する入力を組み合わせたものです。要求を適切に完了する応答を記述してください。
 
74
  from transformers import TextStreamer
75
  text_streamer = TextStreamer(tokenizer)
76
  _ = model.generate(**inputs, streamer = text_streamer, max_new_tokens = 1028)
77
+
78
  #for QA generation
79
+
80
  # Define the formatting function and the prompt template
81
  alpaca_prompt = """以下は質問です。質問に適切に答える回答を書いてください。
82
 
 
99
  from transformers import TextStreamer
100
  text_streamer = TextStreamer(tokenizer)
101
  _ = model.generate(**inputs, streamer = text_streamer, max_new_tokens = 1028)
102
+ ```
103
 
104
  ### Developers
105