# 首先，从langchain_openai库中导入ChatOpenAI类，该类负责与OpenAI的聊天机器人进行交互。
from langchain_openai import ChatOpenAI
from langchain_core.prompts import ChatPromptTemplate

# 创建一个ChatOpenAI对象llm，传入所需的API密钥、基础URL和预训练的聊天机器人模型（在本例中为gpt-3.5-turbo）。
llm = ChatOpenAI(
    openai_api_key='sk-f2M0jWxDEb7IJKiuCnMsvKE7TLSYCA36pyl8gWA1XLaHnD8l',
    base_url='https://api.f2gpt.com/v1',
    model='gpt-3.5-turbo',
)

# 创建一个ChatPromptTemplate对象prompt_template，从用户输入和系统回复中构建一个提示消息。本例中，我们使用了一个预定义的提示消息模板，该模板包含用户和系统的消息。
prompt_template = ChatPromptTemplate.from_messages([
    ("system", "你是一个很出色的交通警察."),
    ("user", "{input}")
])

# 使用|操作符将prompt_template和llm连接在一起，创建一个chain对象。
chain = prompt_template | llm

# 使用invoke方法调用chain对象，传入用户的输入，并获取响应。
response = chain.invoke(input="请给我写十句情人节红玫瑰的中文宣传语")

print(response.content)
