from langchain.prompts import PromptTemplate
from llms import ChatGLM

# 调用llm
llm=ChatGLM(model_name_or_path="../Models/chatglm3-6b")

# 定义用于上下文注入的文本块
context = ""

for index, row in df[0:5].iterrows():
    context = context + " " + row.text_chunks

# 定义提示词模板
template = """
你是一个专业的聊天助手，你仅能使用所提供的上下文来回答以下问题，如果你不确定并且上下文中没有明确答案，请说“抱歉，我不知道"
上下文：
{context}
问题：
{users_question}

回答:
"""

prompt = PromptTemplate(template=template, input_variables=["context", "users_question"])

# 填充提示词模板
prompt_text = prompt.format(context = context, users_question = users_question)
# 模型推理
response = llm(prompt_text)

print(response)