from llama_index.core.prompts import RichPromptTemplate
from llamaindex_rag import index
#定义提示词模板
# prompt_temp = RichPromptTemplate("把用户的语句：{text}翻译成{language}")
# prompt = prompt_temp.format(text="今天天气怎么样",language="英语")
# qa_query_engine = index.as_query_engine()
# qa_prompt_tmpl_str=("把下⾯的原始答案，模拟郭德纲的语⽓，修改得更幽默⼀点。.\n"
#                     "---------------------\n"
#                     "{{ existing_answer }}\n"
#                     "---------------------\n"
#                     "答案: ")
#
# qa_prompt_temp = RichPromptTemplate(qa_prompt_tmpl_str)
# qa_query_engine.update_prompts({"response_synthesizer:text_qa_template": qa_prompt_temp})
# answer = qa_query_engine.query("怎么退款？")
# print(answer)

#定义提示词模板
# 构建检索引擎 response_mode 默认值：compact:压缩。 refine：优化。初始化响应结果会进⼊优化模板的existing_answer 参数，进⾏重新优化。
prompt_temp = RichPromptTemplate("把用户的语句：{text}翻译成{language}")
prompt = prompt_temp.format(text="今天天气怎么样",language="英语")
refine_query_engine = index.as_query_engine(
    response_mode = "refine"
)
refine_prompt_tmpl_str=("把下⾯的原始答案，模拟郭德纲的语⽓，修改得更幽默⼀点。.\n"
                    "---------------------\n"
                    "{{ existing_answer }}\n"
                    "---------------------\n"
                    "答案: ")

refine_template = RichPromptTemplate(refine_prompt_tmpl_str)
refine_query_engine.update_prompts({"response_synthesizer:refine_template": refine_template})
answer = refine_query_engine.query("怎么退款？")
print(answer)
