from langchain_core.prompts import PromptTemplate
from langchain_core.runnables import RunnableSequence
from langchain_openai import ChatOpenAI

# 定义模板
template = "你现在是一位美食博主，需要根据用户输入的城市：{city}，给出对应的美食推荐"
prompt = PromptTemplate(template=template, input_variables=['city'])

# 创建语言模型实例
llm = ChatOpenAI(temperature=0)

# 使用 RunnableSequence 替代 LLMChain
# 这里我们创建一个序列，先应用 prompt 模板，然后将结果传递给 llm
sequence = RunnableSequence(prompt, llm)

# 格式化问题
city_input = {"city": "成都"}

# 执行序列并获取响应
response = sequence.invoke(city_input)
print(response.content)
