RAG_test_1 / app.py
la04's picture
Update app.py
b2bbc8f verified
raw
history blame
2.85 kB
import gradio as gr
import os
from langchain.vectorstores import Chroma
from langchain_community.document_loaders import PyPDFLoader
from langchain_community.embeddings import HuggingFaceEmbeddings
from langchain.chains import RetrievalQA
from langchain.prompts import PromptTemplate
import fitz # PyMuPDF für das Extrahieren von Text aus PDFs
# Funktion zum Extrahieren von Text aus einer PDF
def extract_text_from_pdf(pdf_path):
doc = fitz.open(pdf_path) # Öffnen der PDF-Datei
text_pages = []
# Durch alle Seiten der PDF iterieren und Text extrahieren
for page_num in range(doc.page_count):
page = doc.load_page(page_num)
text = page.get_text("text") # Extrahiert den Text als "plain text"
text_pages.append(text)
return text_pages
# Frage-Antwort-Funktion mit Langchain und Chroma
def process_pdf_and_query(pdf_path, question):
# Extrahiere Text aus der PDF
extracted_text = extract_text_from_pdf(pdf_path)
# Dokumente für Langchain laden
documents = [{"text": page_text} for page_text in extracted_text]
# Embedding und Vektorstore vorbereiten
embeddings = HuggingFaceEmbeddings(model_name="sentence-transformers/all-MiniLM-L6-v2")
vectordb = Chroma.from_documents(documents, embeddings)
retriever = vectordb.as_retriever()
prompt_template = "Beantworte die folgende Frage basierend auf dem Dokument: {context}\nFrage: {question}\nAntwort:"
prompt = PromptTemplate(input_variables=["context", "question"], template=prompt_template)
# Erstellung der RetrievalQA-Kette
qa_chain = RetrievalQA.from_chain_type(llm=None, retriever=retriever, chain_type_kwargs={"prompt": prompt})
response = qa_chain.run(input_documents=documents, question=question)
return response
# Gradio Antwortfunktion
def chatbot_response(pdf, question):
# Speichern der hochgeladenen PDF-Datei
pdf_path = "/tmp/uploaded_pdf.pdf"
pdf_content = pdf.read() # Hole den Inhalt der PDF als Byte-Stream
# Speichern des Byte-Streams in einer Datei
with open(pdf_path, "wb") as f:
f.write(pdf_content)
# Frage beantworten basierend auf der extrahierten PDF und der Frage
answer = process_pdf_and_query(pdf_path, question)
# Temporäre Datei löschen
os.remove(pdf_path)
return answer
# Gradio Interface erstellen
pdf_input = gr.File(label="PDF-Datei hochladen")
question_input = gr.Textbox(label="Frage eingeben")
response_output = gr.Textbox(label="Antwort")
# Gradio Interface starten
interface = gr.Interface(
fn=chatbot_response,
inputs=[pdf_input, question_input],
outputs=response_output,
title="RAG Chatbot mit PDF-Unterstützung",
description="Lade eine PDF-Datei hoch und stelle Fragen zu ihrem Inhalt."
)
if __name__ == "__main__":
interface.launch()