from langchain_ollama import OllamaLLM
from langchain_core.prompts import ChatPromptTemplate

# 创建 OllamaLLM 实例
llm = OllamaLLM(model="deepseek-r1:7b", base_url="http://localhost:11434")

# 创建提示模板
chat_prompt_template = ChatPromptTemplate.from_messages([
    ("system", "你是一位{role}专家，擅长回答{domain}领域的问题"),
    ("user", "请回答这个问题: {question}")
])

# 预设词，模板+变量=>提示词
prompt = chat_prompt_template.format_messages(role="人工智能", domain="人工智能", question="人工智能的发展趋势如何？")

# 打印完整的问题
print(chat_prompt_template.format_messages(role="人工智能", domain="人工智能", question="人工智能的发展趋势如何？"))

# 创建 RunnableSequence 实例 # 数据流 返回
resp = llm.stream(prompt)
# resp = llm.invoke(prompt) # 返回字符串

# 打印返回结果
for r in resp:
    print(r, end="")





