Spaces:
Paused
Paused
Update app.py
Browse files
app.py
CHANGED
@@ -14,7 +14,7 @@ temperature=0.4
|
|
14 |
max_new_tokens=240
|
15 |
top_p=0.92
|
16 |
repetition_penalty=1.7
|
17 |
-
max_length=2048
|
18 |
|
19 |
model_name = "OpenLLM-France/Claire-7B-0.1"
|
20 |
|
@@ -61,7 +61,7 @@ class FalconChatBot:
|
|
61 |
# Generate a response using the Falcon model
|
62 |
response = model.generate(
|
63 |
input_ids=input_ids,
|
64 |
-
|
65 |
use_cache=False,
|
66 |
early_stopping=False,
|
67 |
bos_token_id=model.config.bos_token_id,
|
@@ -88,12 +88,16 @@ falcon_bot = FalconChatBot()
|
|
88 |
title = "👋🏻Bienvenue à Tonic's 🌜🌚Claire Chat !"
|
89 |
description = "Vous pouvez utiliser [🌜🌚ClaireGPT](https://huggingface.co/OpenLLM-France/Claire-7B-0.1) Ou dupliquer pour l'uiliser localement ou sur huggingface! [Join me on Discord to build together](https://discord.gg/VqTxc76K3u)."
|
90 |
history = [
|
91 |
-
|
|
|
|
|
|
|
|
|
92 |
examples = [
|
93 |
[
|
94 |
"[Elon Musk:] - Bonjour Emmanuel. Enchanté de vous revoir.", # user_message
|
95 |
"[Emmanuel Macron:] - Je vois que vous avez effectué un voyage dans la région de la Gascogne.", # assistant_message
|
96 |
-
|
97 |
0.4, # temperature
|
98 |
700, # max_new_tokens
|
99 |
0.90, # top_p
|
@@ -105,7 +109,7 @@ additional_inputs=[
|
|
105 |
gr.Textbox("", label="Introduisez Un Autre Personnage Ici ou Mettez En Scene"),
|
106 |
gr.Slider(
|
107 |
label="Temperature",
|
108 |
-
value=0.
|
109 |
minimum=0.0,
|
110 |
maximum=1.0,
|
111 |
step=0.05,
|
@@ -114,10 +118,10 @@ additional_inputs=[
|
|
114 |
),
|
115 |
gr.Slider(
|
116 |
label="Max new tokens",
|
117 |
-
value=
|
118 |
-
minimum=
|
119 |
-
maximum=
|
120 |
-
step=
|
121 |
interactive=True,
|
122 |
info="The maximum numbers of new tokens",
|
123 |
),
|
|
|
14 |
max_new_tokens=240
|
15 |
top_p=0.92
|
16 |
repetition_penalty=1.7
|
17 |
+
#max_length=2048
|
18 |
|
19 |
model_name = "OpenLLM-France/Claire-7B-0.1"
|
20 |
|
|
|
61 |
# Generate a response using the Falcon model
|
62 |
response = model.generate(
|
63 |
input_ids=input_ids,
|
64 |
+
# max_length=max_length,
|
65 |
use_cache=False,
|
66 |
early_stopping=False,
|
67 |
bos_token_id=model.config.bos_token_id,
|
|
|
88 |
title = "👋🏻Bienvenue à Tonic's 🌜🌚Claire Chat !"
|
89 |
description = "Vous pouvez utiliser [🌜🌚ClaireGPT](https://huggingface.co/OpenLLM-France/Claire-7B-0.1) Ou dupliquer pour l'uiliser localement ou sur huggingface! [Join me on Discord to build together](https://discord.gg/VqTxc76K3u)."
|
90 |
history = [
|
91 |
+
{
|
92 |
+
"user": "Le dialogue suivant est une conversation entre Emmanuel Macron et Elon Musk:",
|
93 |
+
"assistant": "Emmanuel Macron: Bonjour Monsieur Musk. Je vous remercie de me recevoir aujourd'hui."
|
94 |
+
},
|
95 |
+
]
|
96 |
examples = [
|
97 |
[
|
98 |
"[Elon Musk:] - Bonjour Emmanuel. Enchanté de vous revoir.", # user_message
|
99 |
"[Emmanuel Macron:] - Je vois que vous avez effectué un voyage dans la région de la Gascogne.", # assistant_message
|
100 |
+
history, # history
|
101 |
0.4, # temperature
|
102 |
700, # max_new_tokens
|
103 |
0.90, # top_p
|
|
|
109 |
gr.Textbox("", label="Introduisez Un Autre Personnage Ici ou Mettez En Scene"),
|
110 |
gr.Slider(
|
111 |
label="Temperature",
|
112 |
+
value=0.7, # Default value
|
113 |
minimum=0.0,
|
114 |
maximum=1.0,
|
115 |
step=0.05,
|
|
|
118 |
),
|
119 |
gr.Slider(
|
120 |
label="Max new tokens",
|
121 |
+
value=700, # Default value
|
122 |
+
minimum=1,
|
123 |
+
maximum=1024,
|
124 |
+
step=1,
|
125 |
interactive=True,
|
126 |
info="The maximum numbers of new tokens",
|
127 |
),
|