teixeiramg commited on
Commit
01d4f10
·
verified ·
1 Parent(s): 13ae474

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +8 -2
app.py CHANGED
@@ -1,6 +1,7 @@
1
  import gradio as gr
2
  from transformers import AutoModelForCausalLM, AutoTokenizer
3
  import fitz # PyMuPDF
 
4
 
5
  # Carregar o tokenizer e o modelo
6
  tokenizer = AutoTokenizer.from_pretrained("Locutusque/gpt2-xl-conversational")
@@ -21,8 +22,12 @@ def read_pdf(file_path):
21
  # Função para carregar o PDF e armazenar o conteúdo
22
  def load_pdf(pdf_file):
23
  global pdf_content
24
- pdf_content = read_pdf(pdf_file.name)
25
- return "PDF carregado com sucesso!"
 
 
 
 
26
 
27
  # Função para responder perguntas com base no conteúdo do PDF
28
  def answer_question(question, max_length=200, temperature=0.7, top_k=50, top_p=0.95):
@@ -30,6 +35,7 @@ def answer_question(question, max_length=200, temperature=0.7, top_k=50, top_p=0
30
  if not pdf_content:
31
  return "Por favor, carregue um PDF primeiro."
32
  prompt = f"Conteúdo do PDF: {pdf_content}\nPergunta: {question}\nResposta em português:"
 
33
  inputs = tokenizer(prompt, return_tensors="pt")
34
  outputs = model.generate(
35
  inputs.input_ids,
 
1
  import gradio as gr
2
  from transformers import AutoModelForCausalLM, AutoTokenizer
3
  import fitz # PyMuPDF
4
+ import os
5
 
6
  # Carregar o tokenizer e o modelo
7
  tokenizer = AutoTokenizer.from_pretrained("Locutusque/gpt2-xl-conversational")
 
22
  # Função para carregar o PDF e armazenar o conteúdo
23
  def load_pdf(pdf_file):
24
  global pdf_content
25
+ pdf_path = pdf_file.name # Acessar o caminho do arquivo carregado
26
+ pdf_content = read_pdf(pdf_path)
27
+ if pdf_content:
28
+ return "PDF carregado com sucesso!"
29
+ else:
30
+ return "Falha ao carregar o PDF."
31
 
32
  # Função para responder perguntas com base no conteúdo do PDF
33
  def answer_question(question, max_length=200, temperature=0.7, top_k=50, top_p=0.95):
 
35
  if not pdf_content:
36
  return "Por favor, carregue um PDF primeiro."
37
  prompt = f"Conteúdo do PDF: {pdf_content}\nPergunta: {question}\nResposta em português:"
38
+ print(f"Prompt: {prompt}") # Adicionar log para depuração
39
  inputs = tokenizer(prompt, return_tensors="pt")
40
  outputs = model.generate(
41
  inputs.input_ids,