# 导入Tongyi语言模型
from langchain_community.llms.tongyi import Tongyi
# 导入ChatPromptTemplate模板
from langchain_core.prompts import ChatPromptTemplate
# 导入RunnableParallel并行运行
from langchain_core.runnables import RunnableParallel

# 实例化Tongyi语言模型
llm = Tongyi()

# 定义第一个链，模板为“请帮我写一首关于{topic}的诗。50字以内。”，使用Tongyi语言模型
chain1 = ChatPromptTemplate.from_template("请帮我写一首关于{topic}的诗。50字以内。") | llm
# 定义第二个链，模板为“我想写一首关于{topic}的故事。50字以内”，使用Tongyi语言模型
chain2 = ChatPromptTemplate.from_template("我想写一首关于{topic}的故事。50字以内") | llm

# 实例化RunnableParallel并行运行，传入两个链
run_ = RunnableParallel(x1=chain1, x2=chain2)

# 调用invoke方法，传入参数为“美食”
res = run_.invoke({"topic": "美食"})
# 打印结果
print(res)



