josu commited on
Commit
ad33c65
1 Parent(s): 7ee06a9

Create README.md

Browse files
Files changed (1) hide show
  1. README.md +61 -0
README.md ADDED
@@ -0,0 +1,61 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - pt
4
+ widget:
5
+ - text: Explique o que é inteligência artificial.
6
+ - text: Explique o que é processamento de linguagem natural.
7
+ ---
8
+
9
+
10
+ ``` python
11
+
12
+
13
+ from transformers import GenerationConfig
14
+ from transformers import AutoModelForCausalLM, AutoTokenizer
15
+
16
+ model = AutoModelForCausalLM.from_pretrained("josu/gpt-neo-br-instruction")
17
+ tokenizer = AutoTokenizer.from_pretrained("josu/gpt-neo-br-instruction")
18
+
19
+
20
+ def generate_prompt(instruction, input=None):
21
+ if input:
22
+ return f"""Abaixo está uma instrução que descreve uma tarefa, juntamente com uma entrada que fornece mais contexto. Escreva uma resposta que complete adequadamente o pedido.
23
+
24
+ ### Instrução:
25
+ {instruction}
26
+
27
+ ### Entrada:
28
+ {input}
29
+
30
+ ### Resposta:"""
31
+ else:
32
+ return f"""Abaixo está uma instrução que descreve uma tarefa. Escreva uma resposta que complete adequadamente o pedido.
33
+
34
+ ### Instrução:
35
+ {instruction}
36
+
37
+ ### Resposta:"""
38
+
39
+ generation_config = GenerationConfig(
40
+ temperature=0.2,
41
+ top_p=0.75,
42
+ num_beams=4,
43
+ )
44
+ def evaluate(instruction, input=None):
45
+ prompt = generate_prompt(instruction, input)
46
+ inputs = tokenizer(prompt, return_tensors="pt")
47
+ input_ids = inputs["input_ids"].cuda()
48
+ generation_output = model.generate(
49
+ input_ids=input_ids,
50
+ generation_config=generation_config,
51
+ return_dict_in_generate=True,
52
+ output_scores=True,
53
+ max_new_tokens=256
54
+ )
55
+ content = []
56
+ for s in generation_output.sequences:
57
+ output = tokenizer.decode(s)
58
+ content.append(output.split("### Resposta:")[1].strip())
59
+ return content
60
+
61
+ ```