from langchain_ollama import OllamaLLM
from langchain_core.prompts import PromptTemplate

# 创建提示模板
prompt = PromptTemplate(
    input_variables=["question"],
    template="请回答这个问题: {question}"
)

# 创建 OllamaLLM 实例
llm = OllamaLLM(model="deepseek-r1:7b", base_url="http://localhost:11434")

# 创建 RunnableSequence 实例
chain = prompt | llm


# 运行链
question = "人工智能的发展趋势如何？"
result = chain.invoke({"question": question})
print(result)
