|
import streamlit as st
|
|
from sentence_transformers import SentenceTransformer
|
|
from Llm_local import generarPages, informes_mistral,extraer_texto, extraer_texto_word, generar_docx, generar_pdf
|
|
|
|
col1, col2 = st.columns([1, 4])
|
|
with col1:
|
|
st.image("Procuradurialogo.jpg", width=600)
|
|
|
|
with col2:
|
|
st.markdown("""
|
|
<div style='display: flex; align-items: center; height: 100%;'>
|
|
<h1 style='margin: 0; text-align: center;'>ProcurIA</h1>
|
|
</div>
|
|
""", unsafe_allow_html=True)
|
|
|
|
st.sidebar.title("Menú de Funciones")
|
|
generarPages()
|
|
|
|
if "messages" not in st.session_state:
|
|
st.session_state.messages = [{"role": "assistant", "content": "Hola!, en qué puedo ayudarte?"}]
|
|
|
|
model = SentenceTransformer("all-MiniLM-L6-v2")
|
|
|
|
archivo = st.file_uploader("📂 Sube tus documentos PDF o WORD ¡Para hacer un informe!", type=["pdf", "txt"], accept_multiple_files=True)
|
|
|
|
if archivo:
|
|
texto_total = ""
|
|
|
|
for archivo_item in archivo:
|
|
contenido = ""
|
|
|
|
if archivo_item.name.endswith(".pdf"):
|
|
contenido = extraer_texto(archivo_item)
|
|
elif archivo_item.name.endswith(".docx"):
|
|
contenido = extraer_texto_word(archivo_item)
|
|
|
|
if contenido.strip():
|
|
texto_total += f"\n---\nDOCUMENTO: {archivo_item.name}\n{contenido.strip()}\n"
|
|
|
|
if texto_total.strip():
|
|
resumen_completo = [""]
|
|
|
|
def resumen_streaming():
|
|
for palabra in informes_mistral(texto_total):
|
|
resumen_completo[0] += palabra
|
|
yield palabra
|
|
|
|
st.subheader("📄 Informe de todos los documentos:")
|
|
st.write_stream(resumen_streaming())
|
|
|
|
pdf_bytes = generar_pdf(resumen_completo[0])
|
|
st.download_button("📄 Descargar Informe en PDF", data=pdf_bytes, file_name="resumen_global.pdf", mime="application/pdf")
|
|
|
|
docx_buffer = generar_docx(resumen_completo[0])
|
|
st.download_button("📝 Descargar Informe en Word", data=docx_buffer, file_name="resumen_global.docx",
|
|
mime="application/vnd.openxmlformats-officedocument.wordprocessingml.document") |