ValdeciRodrigues commited on
Commit
2512e21
·
verified ·
1 Parent(s): 158b3a2

Update logic/generator.py

Browse files
Files changed (1) hide show
  1. logic/generator.py +1 -7
logic/generator.py CHANGED
@@ -1,8 +1,7 @@
1
  from transformers import AutoTokenizer, AutoModelForCausalLM
2
  import torch
3
 
4
- # Modelo leve compatível com Hugging Face Spaces
5
- model_id = "bigcode/starcoderbase"
6
  tokenizer = AutoTokenizer.from_pretrained(model_id)
7
  model = AutoModelForCausalLM.from_pretrained(
8
  model_id,
@@ -11,10 +10,7 @@ model = AutoModelForCausalLM.from_pretrained(
11
  )
12
 
13
  def generate_code(prompt):
14
- # Formatação simples do prompt
15
  formatted_prompt = f"# Escreva um código Python que faça o seguinte:\n# {prompt}\n"
16
-
17
- # Tokenização e envio para o modelo
18
  inputs = tokenizer(formatted_prompt, return_tensors="pt").to(model.device)
19
  outputs = model.generate(
20
  **inputs,
@@ -24,7 +20,5 @@ def generate_code(prompt):
24
  top_k=50,
25
  top_p=0.95
26
  )
27
-
28
- # Decodificação e retorno do resultado
29
  result = tokenizer.decode(outputs[0], skip_special_tokens=True)
30
  return result.strip()
 
1
  from transformers import AutoTokenizer, AutoModelForCausalLM
2
  import torch
3
 
4
+ model_id = "stabilityai/stable-code-3b"
 
5
  tokenizer = AutoTokenizer.from_pretrained(model_id)
6
  model = AutoModelForCausalLM.from_pretrained(
7
  model_id,
 
10
  )
11
 
12
  def generate_code(prompt):
 
13
  formatted_prompt = f"# Escreva um código Python que faça o seguinte:\n# {prompt}\n"
 
 
14
  inputs = tokenizer(formatted_prompt, return_tensors="pt").to(model.device)
15
  outputs = model.generate(
16
  **inputs,
 
20
  top_k=50,
21
  top_p=0.95
22
  )
 
 
23
  result = tokenizer.decode(outputs[0], skip_special_tokens=True)
24
  return result.strip()