# import getpass
# import os

# if not os.environ.get("OPENAI_API_KEY"):
#   os.environ["OPENAI_API_KEY"] = getpass.getpass("Enter API key for OpenAI: ")

from langchain.chat_models import init_chat_model
# 加载.env中的环境变量
from dotenv import load_dotenv
load_dotenv()

model = init_chat_model("qwen2.5:0.5b", model_provider="ollama",base_url="http://localhost:11434")

# reponse =model.invoke("你是谁!")

from langchain_core.messages import HumanMessage, SystemMessage

messages = [
    SystemMessage("你是一名唐朝的诗人，请用诗句回答我相关问题"),
    HumanMessage("今天的校园景色如何？"),
]

# response = model.invoke(messages)
# response =model.invoke([
#     {"role": "system", "content": "你是一名唐朝的诗人，请用诗句回答我相关问题"},                       
#     {"role": "user", "content": "今天的校园景色如何？"}])

# print(response.content)
from langchain_core.prompts import ChatPromptTemplate

system_template = "你是一名老师请用通俗的语言解释相关的{question}问题 "

prompt_template = ChatPromptTemplate.from_messages(
    [("system", system_template), ("user", "{text}")]
)
# 生成prompt
prompt = prompt_template.format_prompt(question="人工智能", text="ollama是一个什么？")
print(prompt.messages)

response = model.invoke(prompt.messages)

print(response.content)



