SaviAnna commited on
Commit
d5e16b4
·
1 Parent(s): 224ced6

Update pages/📖History_Mystery.py

Browse files
Files changed (1) hide show
  1. pages/📖History_Mystery.py +2 -2
pages/📖History_Mystery.py CHANGED
@@ -9,7 +9,7 @@ st.title("""
9
  """)
10
  # Добавление слайдера
11
  temp = st.slider("Градус дичи", 1.0, 20.0, 1.0)
12
- sen_quan = st.slider(" Длина сгенерированного отрывка", 2, 20, 5)
13
  # Загрузка модели и токенизатора
14
  # model = GPT2LMHeadModel.from_pretrained('sberbank-ai/rugpt3small_based_on_gpt2')
15
  # tokenizer = GPT2Tokenizer.from_pretrained('sberbank-ai/rugpt3small_based_on_gpt2')
@@ -36,7 +36,7 @@ def generate_text(model_GPT, tokenizer_GPT, prompt):
36
  # Преобразование входной строки в токены
37
  input_ids = tokenizer_GPT.encode(prompt, return_tensors='pt')
38
  # Генерация текста
39
- output = model_GPT.generate(input_ids=input_ids, max_length=100, num_beams=5, do_sample=True,
40
  temperature=temp, top_k=50, top_p=0.6, no_repeat_ngram_size=4,
41
  num_return_sequences=sen_quan)
42
  # Декодирование сгенерированного текста
 
9
  """)
10
  # Добавление слайдера
11
  temp = st.slider("Градус дичи", 1.0, 20.0, 1.0)
12
+ sen_quan = st.slider(" Длина сгенерированного отрывка", 2, 10, 5)
13
  # Загрузка модели и токенизатора
14
  # model = GPT2LMHeadModel.from_pretrained('sberbank-ai/rugpt3small_based_on_gpt2')
15
  # tokenizer = GPT2Tokenizer.from_pretrained('sberbank-ai/rugpt3small_based_on_gpt2')
 
36
  # Преобразование входной строки в токены
37
  input_ids = tokenizer_GPT.encode(prompt, return_tensors='pt')
38
  # Генерация текста
39
+ output = model_GPT.generate(input_ids=input_ids, max_length=80, num_beams=5, do_sample=True,
40
  temperature=temp, top_k=50, top_p=0.6, no_repeat_ngram_size=4,
41
  num_return_sequences=sen_quan)
42
  # Декодирование сгенерированного текста