Update README.md
Browse files
README.md
CHANGED
@@ -46,6 +46,7 @@ if tokenizer.pad_token is None:
|
|
46 |
tokenizer.pad_token = tokenizer.eos_token
|
47 |
|
48 |
model.eval()
|
|
|
49 |
# for MCQ set generation
|
50 |
|
51 |
alpaca_prompt = """以下は、タスクを説明する指示と、さらに詳しいコンテキストを提供する入力を組み合わせたものです。要求を適切に完了する応答を記述してください。
|
@@ -73,8 +74,9 @@ inputs = tokenizer(
|
|
73 |
from transformers import TextStreamer
|
74 |
text_streamer = TextStreamer(tokenizer)
|
75 |
_ = model.generate(**inputs, streamer = text_streamer, max_new_tokens = 1028)
|
76 |
-
|
77 |
#for QA generation
|
|
|
78 |
# Define the formatting function and the prompt template
|
79 |
alpaca_prompt = """以下は質問です。質問に適切に答える回答を書いてください。
|
80 |
|
@@ -97,6 +99,7 @@ inputs = tokenizer(
|
|
97 |
from transformers import TextStreamer
|
98 |
text_streamer = TextStreamer(tokenizer)
|
99 |
_ = model.generate(**inputs, streamer = text_streamer, max_new_tokens = 1028)
|
|
|
100 |
|
101 |
### Developers
|
102 |
|
|
|
46 |
tokenizer.pad_token = tokenizer.eos_token
|
47 |
|
48 |
model.eval()
|
49 |
+
|
50 |
# for MCQ set generation
|
51 |
|
52 |
alpaca_prompt = """以下は、タスクを説明する指示と、さらに詳しいコンテキストを提供する入力を組み合わせたものです。要求を適切に完了する応答を記述してください。
|
|
|
74 |
from transformers import TextStreamer
|
75 |
text_streamer = TextStreamer(tokenizer)
|
76 |
_ = model.generate(**inputs, streamer = text_streamer, max_new_tokens = 1028)
|
77 |
+
|
78 |
#for QA generation
|
79 |
+
|
80 |
# Define the formatting function and the prompt template
|
81 |
alpaca_prompt = """以下は質問です。質問に適切に答える回答を書いてください。
|
82 |
|
|
|
99 |
from transformers import TextStreamer
|
100 |
text_streamer = TextStreamer(tokenizer)
|
101 |
_ = model.generate(**inputs, streamer = text_streamer, max_new_tokens = 1028)
|
102 |
+
```
|
103 |
|
104 |
### Developers
|
105 |
|