PEFT
Portuguese
llama
LoRA
Llama
Stanford-Alpaca
dominguesm commited on
Commit
05ba9f1
1 Parent(s): 075fc0e

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +6 -6
README.md CHANGED
@@ -57,20 +57,20 @@ def generate_prompt(instruction, input=None):
57
  if input:
58
  return f"""Abaixo está uma instrução que descreve uma tarefa, emparelhada com uma entrada que fornece mais contexto. Escreva uma resposta que conclua adequadamente a solicitação.
59
 
60
- ### Instruction:
61
  {instruction}
62
 
63
- ### Input:
64
  {input}
65
 
66
- ### Response:"""
67
  else:
68
  return f"""Abaixo está uma instrução que descreve uma tarefa. Escreva uma resposta que conclua adequadamente a solicitação.
69
 
70
- ### Instruction:
71
  {instruction}
72
 
73
- ### Response:"""
74
 
75
  generation_config = GenerationConfig(
76
  temperature=0.1,
@@ -91,7 +91,7 @@ def generate(instruction, input=None):
91
  )
92
  for s in generation_output.sequences:
93
  output = tokenizer.decode(s)
94
- print("Resposta:", output.split("### Response:")[1].strip())
95
 
96
  generate(input("Instrução: "))
97
 
 
57
  if input:
58
  return f"""Abaixo está uma instrução que descreve uma tarefa, emparelhada com uma entrada que fornece mais contexto. Escreva uma resposta que conclua adequadamente a solicitação.
59
 
60
+ ### Instruções:
61
  {instruction}
62
 
63
+ ### Entrada:
64
  {input}
65
 
66
+ ### Resposta:"""
67
  else:
68
  return f"""Abaixo está uma instrução que descreve uma tarefa. Escreva uma resposta que conclua adequadamente a solicitação.
69
 
70
+ ### Instruções:
71
  {instruction}
72
 
73
+ ### Resposta:"""
74
 
75
  generation_config = GenerationConfig(
76
  temperature=0.1,
 
91
  )
92
  for s in generation_output.sequences:
93
  output = tokenizer.decode(s)
94
+ print("Resposta:", output.split("### Resposta:")[1].strip())
95
 
96
  generate(input("Instrução: "))
97