Spaces:
Runtime error
Runtime error
Update app.py
Browse files
app.py
CHANGED
@@ -3,7 +3,7 @@ import gradio as gr
|
|
3 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
4 |
from util_funcs import get_length_param
|
5 |
|
6 |
-
def chat_function(Message, Length_of_the_answer, Who_is_next,
|
7 |
|
8 |
input_user = Message
|
9 |
|
@@ -54,7 +54,7 @@ def chat_function(Message, Length_of_the_answer, Who_is_next, Base_to_On_subject
|
|
54 |
do_sample=True,
|
55 |
top_k=50,
|
56 |
top_p=0.9,
|
57 |
-
temperature = float(
|
58 |
mask_token_id=tokenizer.mask_token_id,
|
59 |
eos_token_id=tokenizer.eos_token_id,
|
60 |
unk_token_id=tokenizer.unk_token_id,
|
@@ -91,7 +91,7 @@ model = model.eval()
|
|
91 |
# Gradio
|
92 |
checkbox_group = gr.inputs.CheckboxGroup(['Kirill', 'Me'], default=['Kirill'], type="value", label=None)
|
93 |
title = "Chat with Kirill (in Russian)"
|
94 |
-
description = "Тут можно поболтать со мной. Но вместо меня бот. Оставь сообщение пустым, чтобы Кирилл продолжил говорить - он очень любит писать подряд несколько сообщений в чате. Используй слайдер, чтобы ответы были более общими или более конкретными (ближе к теме).
|
95 |
article = "<p style='text-align: center'><a href='https://github.com/Kirili4ik/ruDialoGpt3-finetune-colab'>Github with fine-tuning GPT-3 on your chat</a></p>"
|
96 |
examples = [
|
97 |
["В чем смысл жизни?", 'medium', 'Kirill', 0.95],
|
@@ -104,7 +104,7 @@ iface = gr.Interface(chat_function,
|
|
104 |
"text",
|
105 |
gr.inputs.Radio(["short", "medium", "long"], default='medium'),
|
106 |
gr.inputs.Radio(["Kirill", "Me"], default='Kirill'),
|
107 |
-
gr.inputs.Slider(0,
|
108 |
"state"
|
109 |
],
|
110 |
["html", "state"],
|
|
|
3 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
4 |
from util_funcs import get_length_param
|
5 |
|
6 |
+
def chat_function(Message, Length_of_the_answer, Who_is_next, Base_to_On_subject_temperature, history): # model, tokenizer
|
7 |
|
8 |
input_user = Message
|
9 |
|
|
|
54 |
do_sample=True,
|
55 |
top_k=50,
|
56 |
top_p=0.9,
|
57 |
+
temperature = float(Base_to_On_subject_temperature), # 0 for greedy
|
58 |
mask_token_id=tokenizer.mask_token_id,
|
59 |
eos_token_id=tokenizer.eos_token_id,
|
60 |
unk_token_id=tokenizer.unk_token_id,
|
|
|
91 |
# Gradio
|
92 |
checkbox_group = gr.inputs.CheckboxGroup(['Kirill', 'Me'], default=['Kirill'], type="value", label=None)
|
93 |
title = "Chat with Kirill (in Russian)"
|
94 |
+
description = "Тут можно поболтать со мной. Но вместо меня бот. Оставь сообщение пустым, чтобы Кирилл продолжил говорить - он очень любит писать подряд несколько сообщений в чате. Используй слайдер, чтобы ответы были более общими или более конкретными (ближе к теме). Подробнее о технике по ссылке внизу."
|
95 |
article = "<p style='text-align: center'><a href='https://github.com/Kirili4ik/ruDialoGpt3-finetune-colab'>Github with fine-tuning GPT-3 on your chat</a></p>"
|
96 |
examples = [
|
97 |
["В чем смысл жизни?", 'medium', 'Kirill', 0.95],
|
|
|
104 |
"text",
|
105 |
gr.inputs.Radio(["short", "medium", "long"], default='medium'),
|
106 |
gr.inputs.Radio(["Kirill", "Me"], default='Kirill'),
|
107 |
+
gr.inputs.Slider(0, 1.5, default=0.5),
|
108 |
"state"
|
109 |
],
|
110 |
["html", "state"],
|