
from langchain.chains import LLMRequestsChain,LLMChain
from langchain import OpenAI
from langchain.prompts.prompt import PromptTemplate

template = """在 >>> 和 <<< 直接是来自百度的原始搜索结果.
请把对于问题 '{query}' 的答案从里面提取出来，如果里面没有相关信息的话就说 "找不到"
请使用如下格式：
Extracted:<answer or "找不到">
>>> {requests_result} <<<
Extracted:"""

PROMPT = PromptTemplate(
    input_variables=["query", "requests_result"],
    template=template,
)
requests_chain = LLMRequestsChain(llm_chain = LLMChain(llm=OpenAI(temperature=0), prompt=PROMPT))
question = "今天武汉的天气怎么样？"
inputs = {
    "query": question,
    "url": "https://www.baidu.com/search?q=" + question.replace(" ", "+")
}
result=requests_chain(inputs)
print(result)
print(result['output'])