# template_example.py
import os
from langchain_openai import ChatOpenAI
from langchain_core.prompts import ChatPromptTemplate


def template_example():
    """使用提示模板的例子"""

    print("📝 提示模板示例")

    # 1. 创建LLM
    llm = ChatOpenAI(
        api_key=os.getenv("DASHSCOPE_API_KEY"),
        base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",
        model="qwen-turbo"
    )

    # 2. 创建提示模板
    prompt_template = ChatPromptTemplate.from_template(
        "你是一个{role}，请回答关于{topic}的问题：{question}"
    )

    # 3. 格式化提示
    formatted_prompt = prompt_template.format(
        role="Python老师",
        topic="编程",
        question="什么是变量？"
    )

    print("🔍 格式化后的提示：")
    print(formatted_prompt)

    # 4. 发送到LLM
    response = llm.invoke(formatted_prompt)

    print("\n🤖 AI回复：")
    print(response.content)


# 运行示例
template_example()
