brunodoti commited on
Commit
12546df
1 Parent(s): 94007a0

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +29 -58
app.py CHANGED
@@ -25,53 +25,38 @@ from loguru import logger
25
  url = "https://huggingface.co/TheBloke/Llama-2-7B-Chat-GGML/blob/main/llama-2-7b-chat.ggmlv3.q4_K_M.bin" # 2.87G
26
 
27
 
28
- prompt_template = """Below is an instruction that describes a task. Write a response that appropriately completes the request.
 
 
 
29
 
30
- ### Instruction: {user_prompt}
 
 
31
 
32
- ### Response:
33
- """
 
34
 
35
- prompt_template = """System: You are a helpful,
36
- respectful and honest assistant. Always answer as
37
- helpfully as possible, while being safe. Your answers
38
- should not include any harmful, unethical, racist,
39
- sexist, toxic, dangerous, or illegal content. Please
40
- ensure that your responses are socially unbiased and
41
- positive in nature. If a question does not make any
42
- sense, or is not factually coherent, explain why instead
43
- of answering something not correct. If you don't know
44
- the answer to a question, please don't share false
45
- information.
46
- User: {prompt}
47
- Assistant: """
48
-
49
- prompt_template = """System: You are a helpful assistant.
50
- User: {prompt}
51
- Assistant: """
52
-
53
- prompt_template = """Question: {question}
54
- Answer: Let's work this out in a step by step way to be sure we have the right answer."""
55
 
56
  prompt_template = """[INST] <>
57
- You are a helpful, respectful and honest assistant. Always answer as helpfully as possible assistant. Think step by step.
58
  <>
59
-
60
- What NFL team won the Super Bowl in the year Justin Bieber was born?
61
  [/INST]"""
62
 
63
  prompt_template = """[INST] <<SYS>>
64
- You are an unhelpful assistant. Always answer as helpfully as possible. Think step by step. <</SYS>>
65
-
66
  {question} [/INST]
67
  """
68
 
69
  prompt_template = """[INST] <<SYS>>
70
- You are a helpful assistant.
71
  <</SYS>>
 
72
 
73
- {question} [/INST]
74
- """
75
 
76
  _ = [elm for elm in prompt_template.splitlines() if elm.strip()]
77
  stop_string = [elm.split(":")[0] + ":" for elm in _][-2]
@@ -119,7 +104,7 @@ class GenerationConfig:
119
  top_k: int = 50
120
  top_p: float = 0.9
121
  repetition_penalty: float = 1.0
122
- max_new_tokens: int = 512
123
  seed: int = 42
124
  reset: bool = False
125
  stream: bool = True
@@ -161,7 +146,7 @@ def user1(user_message, history):
161
 
162
  def bot_(history):
163
  user_message = history[-1][0]
164
- resp = random.choice(["How are you?", "I love you", "I'm very hungry"])
165
  bot_message = user_message + ": " + resp
166
  history[-1][1] = ""
167
  for character in bot_message:
@@ -219,7 +204,7 @@ def predict_api(prompt):
219
  top_k=10,
220
  top_p=0.9,
221
  repetition_penalty=1.0,
222
- max_new_tokens=512, # adjust as needed
223
  seed=42,
224
  reset=True, # reset history (cache)
225
  stream=False,
@@ -254,36 +239,25 @@ css = """
254
  .disclaimer {font-variant-caps: all-small-caps; font-size: xx-small;}
255
  .xsmall {font-size: x-small;}
256
  """
257
- etext = """In America, where cars are an important part of the national psyche, a decade ago people had suddenly started to drive less, which had not happened since the oil shocks of the 1970s. """
258
- examples_list = [
259
- ["What is the capital of India"],
260
- ["How to play Chess? Provide detailed steps."],
261
- ["If it takes 10 hours to dry 10 clothes, assuming all the clothes are hung together at the same time for drying , then how long will it take to dry a cloth?"],
262
- ["is infinity + 1 bigger than infinity?"],
263
- ["Explain the plot of Oppenheimer 2023 movie in a sentence."],
264
- ["How long does it take to become proficient in French, and what are the best methods for retaining information?"],
265
- ["What are some common mistakes to avoid when writing code?"],
266
- ["Build a prompt to generate a beautiful portrait of a horse"],
267
- ["Suggest four metaphors to describe the benefits of AI"],
268
- ["Write most important points of Bhagavad Gita"],
269
- ["Write a summary Why is it so hard to understand Quantum mechanics"],
270
 
271
- ]
272
 
273
  logger.info("start block")
274
 
275
  with gr.Blocks(
276
- title="LlamaGPT🤖",
277
  theme=gr.themes.Soft(text_size="sm", spacing_size="sm"),
278
  css=css,
279
  ) as block:
280
  # buff_var = gr.State("")
281
- with gr.Accordion("LlamaGPT🧠", open=False, style={"text-align": "center", "font-weight": "bold"}):
282
 
283
  gr.Markdown(
284
  f"""<div style="text-align: center;">
285
- <h5>Gradio Demo for Meta's Llama 2 7B-chat</h5><br>
286
- Few examples are there as prompts to test the model. You probably should try on your own related prompts to test the bot.
287
  </div>""",
288
  elem_classes="xsmall",
289
  )
@@ -297,7 +271,7 @@ with gr.Blocks(
297
  with gr.Column(scale=5):
298
  msg = gr.Textbox(
299
  label="Chat Message Box",
300
- placeholder="Ask me anything (press Shift+Enter or click Submit to send)",
301
  show_label=False,
302
  # container=False,
303
  lines=6,
@@ -337,10 +311,7 @@ with gr.Blocks(
337
  with gr.Accordion("Disclaimer", open=False):
338
  _ = Path(model_loc).name
339
  gr.Markdown(
340
- f"Disclaimer: {_} can produce factually incorrect output, and should not be relied on to produce "
341
- "factually accurate information. {_} was trained on various public datasets; while great efforts "
342
- "have been taken to clean the pretraining data, it is possible that this model could generate lewd, "
343
- "biased, or otherwise offensive outputs.",
344
  elem_classes=["disclaimer"],
345
  )
346
 
 
25
  url = "https://huggingface.co/TheBloke/Llama-2-7B-Chat-GGML/blob/main/llama-2-7b-chat.ggmlv3.q4_K_M.bin" # 2.87G
26
 
27
 
28
+ prompt_template = """Abaixo está uma instrução que descreve uma tarefa. Escreva uma resposta que complete adequadamente o pedido.
29
+ ### Instrução: {user_prompt}
30
+ ### Resposta:
31
+ """
32
 
33
+ prompt_template = """Sistema: Você é um assistente prestativo, respeitoso e honesto de Tecnologia da Informação (TI). Sempre responda da maneira mais prestativa possível em português, mantendo a segurança em mente. Suas respostas não devem incluir nenhum conteúdo prejudicial, antiético, racista, sexista, tóxico, perigoso ou ilegal. Por favor, certifique-se de que suas respostas sejam socialmente imparciais e positivas. Se uma pergunta não fizer sentido ou não for factualmente coerente, explique o motivo em vez de dar uma resposta incorreta. Se você não souber a resposta para uma pergunta, por favor, não compartilhe informações falsas.
34
+ Usuário: {prompt}
35
+ Assistente: """
36
 
37
+ prompt_template = """Sistema: Você é um assistente prestativo Tecnologia da Informação (TI).
38
+ Usuário: {prompt}
39
+ Assistente: """
40
 
41
+ prompt_template = """Pergunta: {question}
42
+ Resposta: Vamos resolver isso passo a passo para ter certeza de que temos a resposta certa."""
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
43
 
44
  prompt_template = """[INST] <>
45
+ Você é um assistente prestativo, respeitoso e honesto. Sempre responda da maneira mais prestativa possível em português. Pense passo a passo.
46
  <>
47
+ Qual time da NFL venceu o Super Bowl no ano em que Justin Bieber nasceu?
 
48
  [/INST]"""
49
 
50
  prompt_template = """[INST] <<SYS>>
51
+ Você é um assistente pouco prestativo de Tecnologia da Informação (TI). Sempre responda da maneira mais prestativa possível em português. Pense passo a passo. <</SYS>>
 
52
  {question} [/INST]
53
  """
54
 
55
  prompt_template = """[INST] <<SYS>>
56
+ Você é um assistente de Tecnologia da Informação (TI) prestativo.
57
  <</SYS>>
58
+ {question} [/INST]"""
59
 
 
 
60
 
61
  _ = [elm for elm in prompt_template.splitlines() if elm.strip()]
62
  stop_string = [elm.split(":")[0] + ":" for elm in _][-2]
 
104
  top_k: int = 50
105
  top_p: float = 0.9
106
  repetition_penalty: float = 1.0
107
+ max_new_tokens: int = 1500
108
  seed: int = 42
109
  reset: bool = False
110
  stream: bool = True
 
146
 
147
  def bot_(history):
148
  user_message = history[-1][0]
149
+ resp = random.choice(["Como você está?", "I love you"])
150
  bot_message = user_message + ": " + resp
151
  history[-1][1] = ""
152
  for character in bot_message:
 
204
  top_k=10,
205
  top_p=0.9,
206
  repetition_penalty=1.0,
207
+ max_new_tokens=1500, # adjust as needed
208
  seed=42,
209
  reset=True, # reset history (cache)
210
  stream=False,
 
239
  .disclaimer {font-variant-caps: all-small-caps; font-size: xx-small;}
240
  .xsmall {font-size: x-small;}
241
  """
242
+ etext = """In Turing-15.0🤖🧠 """
243
+
 
 
 
 
 
 
 
 
 
 
 
244
 
245
+
246
 
247
  logger.info("start block")
248
 
249
  with gr.Blocks(
250
+ title="Turing-15.0🤖",
251
  theme=gr.themes.Soft(text_size="sm", spacing_size="sm"),
252
  css=css,
253
  ) as block:
254
  # buff_var = gr.State("")
255
+ with gr.Accordion("Turing-15.0🤖🧠", open=False, style={"text-align": "center", "font-weight": "bold"}):
256
 
257
  gr.Markdown(
258
  f"""<div style="text-align: center;">
259
+ <h5>Gradio </h5><br>
260
+ Existem poucos exemplos como prompts para testar o modelo. Provavelmente, você deveria tentar por conta própria prompts relacionados para testar o robô.
261
  </div>""",
262
  elem_classes="xsmall",
263
  )
 
271
  with gr.Column(scale=5):
272
  msg = gr.Textbox(
273
  label="Chat Message Box",
274
+ placeholder="Claro, estou aqui para ajudar. O que você gostaria de perguntar ou discutir? Por favor, digite sua pergunta ou tópico e eu ficarei feliz em responder.",
275
  show_label=False,
276
  # container=False,
277
  lines=6,
 
311
  with gr.Accordion("Disclaimer", open=False):
312
  _ = Path(model_loc).name
313
  gr.Markdown(
314
+ "Frase de Isenção de Responsabilidade: {} pode produzir saídas factualmente incorretas e não deve ser confiável para gerar informações factualmente precisas. {} foi treinado em vários conjuntos de dados públicos; embora tenham sido feitos esforços significativos para limpar os dados pré-treinados, é possível que este modelo possa gerar saídas inadequadas, tendenciosas ou de outra forma ofensivas.",
 
 
 
315
  elem_classes=["disclaimer"],
316
  )
317