Update logic/generator.py
Browse files- logic/generator.py +1 -7
logic/generator.py
CHANGED
@@ -1,8 +1,7 @@
|
|
1 |
from transformers import AutoTokenizer, AutoModelForCausalLM
|
2 |
import torch
|
3 |
|
4 |
-
|
5 |
-
model_id = "bigcode/starcoderbase"
|
6 |
tokenizer = AutoTokenizer.from_pretrained(model_id)
|
7 |
model = AutoModelForCausalLM.from_pretrained(
|
8 |
model_id,
|
@@ -11,10 +10,7 @@ model = AutoModelForCausalLM.from_pretrained(
|
|
11 |
)
|
12 |
|
13 |
def generate_code(prompt):
|
14 |
-
# Formatação simples do prompt
|
15 |
formatted_prompt = f"# Escreva um código Python que faça o seguinte:\n# {prompt}\n"
|
16 |
-
|
17 |
-
# Tokenização e envio para o modelo
|
18 |
inputs = tokenizer(formatted_prompt, return_tensors="pt").to(model.device)
|
19 |
outputs = model.generate(
|
20 |
**inputs,
|
@@ -24,7 +20,5 @@ def generate_code(prompt):
|
|
24 |
top_k=50,
|
25 |
top_p=0.95
|
26 |
)
|
27 |
-
|
28 |
-
# Decodificação e retorno do resultado
|
29 |
result = tokenizer.decode(outputs[0], skip_special_tokens=True)
|
30 |
return result.strip()
|
|
|
1 |
from transformers import AutoTokenizer, AutoModelForCausalLM
|
2 |
import torch
|
3 |
|
4 |
+
model_id = "stabilityai/stable-code-3b"
|
|
|
5 |
tokenizer = AutoTokenizer.from_pretrained(model_id)
|
6 |
model = AutoModelForCausalLM.from_pretrained(
|
7 |
model_id,
|
|
|
10 |
)
|
11 |
|
12 |
def generate_code(prompt):
|
|
|
13 |
formatted_prompt = f"# Escreva um código Python que faça o seguinte:\n# {prompt}\n"
|
|
|
|
|
14 |
inputs = tokenizer(formatted_prompt, return_tensors="pt").to(model.device)
|
15 |
outputs = model.generate(
|
16 |
**inputs,
|
|
|
20 |
top_k=50,
|
21 |
top_p=0.95
|
22 |
)
|
|
|
|
|
23 |
result = tokenizer.decode(outputs[0], skip_special_tokens=True)
|
24 |
return result.strip()
|