Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
@@ -63,10 +63,10 @@ def answer_question(question, max_length=200, temperature=0.7, top_k=50, top_p=0
|
|
63 |
if num_tokens > 1024:
|
64 |
return "Erro: O prompt gerado ultrapassou o limite de tokens do modelo. Tente um PDF menor.", prompt
|
65 |
|
66 |
-
# Gerar a resposta com configurações
|
67 |
outputs = model.generate(
|
68 |
inputs.input_ids,
|
69 |
-
|
70 |
temperature=0.7, # Usando temperatura mais baixa para evitar respostas incoerentes
|
71 |
num_return_sequences=1,
|
72 |
)
|
|
|
63 |
if num_tokens > 1024:
|
64 |
return "Erro: O prompt gerado ultrapassou o limite de tokens do modelo. Tente um PDF menor.", prompt
|
65 |
|
66 |
+
# Gerar a resposta com configurações ajustadas
|
67 |
outputs = model.generate(
|
68 |
inputs.input_ids,
|
69 |
+
max_new_tokens=200, # Gerar até 200 novos tokens (apenas a resposta)
|
70 |
temperature=0.7, # Usando temperatura mais baixa para evitar respostas incoerentes
|
71 |
num_return_sequences=1,
|
72 |
)
|