Spaces:
Sleeping
Sleeping
Update pages/📖History_Mystery.py
Browse files
pages/📖History_Mystery.py
CHANGED
@@ -87,7 +87,7 @@ def generate_text(model_GPT, tokenizer_GPT, prompt):
|
|
87 |
# Преобразование входной строки в токены
|
88 |
input_ids = tokenizer_GPT.encode(prompt, return_tensors='pt')
|
89 |
# Генерация текста
|
90 |
-
output = model_GPT.generate(input_ids=input_ids, max_length=100, num_beams=
|
91 |
temperature=temp, top_k=60, top_p=0.6, no_repeat_ngram_size=4,
|
92 |
num_return_sequences=sen_quan)
|
93 |
# Декодирование сгенерированного текста
|
@@ -100,7 +100,7 @@ def main():
|
|
100 |
# GPT-3 генерация текста
|
101 |
""")
|
102 |
# Ввод строки пользователем
|
103 |
-
prompt = st.text_area("Какую фразу нужно продолжить:", value="В средние века
|
104 |
# # Генерация текста по введенной строке
|
105 |
# generated_text = generate_text(prompt)
|
106 |
# Создание кнопки "Сгенерировать"
|
|
|
87 |
# Преобразование входной строки в токены
|
88 |
input_ids = tokenizer_GPT.encode(prompt, return_tensors='pt')
|
89 |
# Генерация текста
|
90 |
+
output = model_GPT.generate(input_ids=input_ids, max_length=100, num_beams=2*sen_quan, do_sample=True,
|
91 |
temperature=temp, top_k=60, top_p=0.6, no_repeat_ngram_size=4,
|
92 |
num_return_sequences=sen_quan)
|
93 |
# Декодирование сгенерированного текста
|
|
|
100 |
# GPT-3 генерация текста
|
101 |
""")
|
102 |
# Ввод строки пользователем
|
103 |
+
prompt = st.text_area("Какую фразу нужно продолжить:", value="В средние века среди рыцарей")
|
104 |
# # Генерация текста по введенной строке
|
105 |
# generated_text = generate_text(prompt)
|
106 |
# Создание кнопки "Сгенерировать"
|