# from retriever.vectordb import search_documents from retriever.vectordb_rerank import search_documents from generator.prompt_builder import build_prompt from generator.llm_inference import generate_answer def rag_pipeline(query: str, top_k: int = 5) -> str: """ 1. 사용자 질문으로 관련 문서를 검색 2. 검색된 문서와 함께 프롬프트 구성 3. 프롬프트로부터 답변 생성 """ # 1. 검색 context_docs = search_documents(query, top_k=top_k) print("context_docs", context_docs) # 2. 프롬프트 조립 prompt = build_prompt(query, context_docs) print("prompt", prompt) # 3. 모델 추론 output = generate_answer(prompt) print("output", output) return output