Kirili4ik commited on
Commit
9283ef4
1 Parent(s): 1b31f90

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +4 -4
app.py CHANGED
@@ -3,7 +3,7 @@ import gradio as gr
3
  from transformers import AutoModelForCausalLM, AutoTokenizer
4
  from util_funcs import get_length_param
5
 
6
- def chat_function(Message, Length_of_the_answer, Who_is_next, Base_to_On_subject, history): # model, tokenizer
7
 
8
  input_user = Message
9
 
@@ -54,7 +54,7 @@ def chat_function(Message, Length_of_the_answer, Who_is_next, Base_to_On_subject
54
  do_sample=True,
55
  top_k=50,
56
  top_p=0.9,
57
- temperature = float(Base_to_On_subject), # 0 for greedy
58
  mask_token_id=tokenizer.mask_token_id,
59
  eos_token_id=tokenizer.eos_token_id,
60
  unk_token_id=tokenizer.unk_token_id,
@@ -91,7 +91,7 @@ model = model.eval()
91
  # Gradio
92
  checkbox_group = gr.inputs.CheckboxGroup(['Kirill', 'Me'], default=['Kirill'], type="value", label=None)
93
  title = "Chat with Kirill (in Russian)"
94
- description = "Тут можно поболтать со мной. Но вместо меня бот. Оставь сообщение пустым, чтобы Кирилл продолжил говорить - он очень любит писать подряд несколько сообщений в чате. Используй слайдер, чтобы ответы были более общими или более конкретными (ближе к теме). Подбробнее о технике по ссылке внизу."
95
  article = "<p style='text-align: center'><a href='https://github.com/Kirili4ik/ruDialoGpt3-finetune-colab'>Github with fine-tuning GPT-3 on your chat</a></p>"
96
  examples = [
97
  ["В чем смысл жизни?", 'medium', 'Kirill', 0.95],
@@ -104,7 +104,7 @@ iface = gr.Interface(chat_function,
104
  "text",
105
  gr.inputs.Radio(["short", "medium", "long"], default='medium'),
106
  gr.inputs.Radio(["Kirill", "Me"], default='Kirill'),
107
- gr.inputs.Slider(0, 2, default=0.5),
108
  "state"
109
  ],
110
  ["html", "state"],
3
  from transformers import AutoModelForCausalLM, AutoTokenizer
4
  from util_funcs import get_length_param
5
 
6
+ def chat_function(Message, Length_of_the_answer, Who_is_next, Base_to_On_subject_temperature, history): # model, tokenizer
7
 
8
  input_user = Message
9
 
54
  do_sample=True,
55
  top_k=50,
56
  top_p=0.9,
57
+ temperature = float(Base_to_On_subject_temperature), # 0 for greedy
58
  mask_token_id=tokenizer.mask_token_id,
59
  eos_token_id=tokenizer.eos_token_id,
60
  unk_token_id=tokenizer.unk_token_id,
91
  # Gradio
92
  checkbox_group = gr.inputs.CheckboxGroup(['Kirill', 'Me'], default=['Kirill'], type="value", label=None)
93
  title = "Chat with Kirill (in Russian)"
94
+ description = "Тут можно поболтать со мной. Но вместо меня бот. Оставь сообщение пустым, чтобы Кирилл продолжил говорить - он очень любит писать подряд несколько сообщений в чате. Используй слайдер, чтобы ответы были более общими или более конкретными (ближе к теме). Подробнее о технике по ссылке внизу."
95
  article = "<p style='text-align: center'><a href='https://github.com/Kirili4ik/ruDialoGpt3-finetune-colab'>Github with fine-tuning GPT-3 on your chat</a></p>"
96
  examples = [
97
  ["В чем смысл жизни?", 'medium', 'Kirill', 0.95],
104
  "text",
105
  gr.inputs.Radio(["short", "medium", "long"], default='medium'),
106
  gr.inputs.Radio(["Kirill", "Me"], default='Kirill'),
107
+ gr.inputs.Slider(0, 1.5, default=0.5),
108
  "state"
109
  ],
110
  ["html", "state"],