teixeiramg commited on
Commit
9778ffc
·
verified ·
1 Parent(s): cab5133

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +2 -2
app.py CHANGED
@@ -63,10 +63,10 @@ def answer_question(question, max_length=200, temperature=0.7, top_k=50, top_p=0
63
  if num_tokens > 1024:
64
  return "Erro: O prompt gerado ultrapassou o limite de tokens do modelo. Tente um PDF menor.", prompt
65
 
66
- # Gerar a resposta com configurações simples
67
  outputs = model.generate(
68
  inputs.input_ids,
69
- max_length=200, # Limite de tamanho da resposta
70
  temperature=0.7, # Usando temperatura mais baixa para evitar respostas incoerentes
71
  num_return_sequences=1,
72
  )
 
63
  if num_tokens > 1024:
64
  return "Erro: O prompt gerado ultrapassou o limite de tokens do modelo. Tente um PDF menor.", prompt
65
 
66
+ # Gerar a resposta com configurações ajustadas
67
  outputs = model.generate(
68
  inputs.input_ids,
69
+ max_new_tokens=200, # Gerar até 200 novos tokens (apenas a resposta)
70
  temperature=0.7, # Usando temperatura mais baixa para evitar respostas incoerentes
71
  num_return_sequences=1,
72
  )