import os

from langchain.prompts import ChatPromptTemplate
from langchain_community.chat_models.tongyi import ChatTongyi

# 这里需要将 DASHSCOPE_API_KEY 替换为你在阿里云控制台开通的 API KEY
os.environ["DASHSCOPE_API_KEY"] = "sk-bb1ce341ccdf459a83a1773cb0f7444f"

# 可以通过 model 指定模型
llm = ChatTongyi(model='qwen3-vl-8b-instruct')

# 需要注意的一点是，这里需要指明具体的role，在这里是system和用户
prompt = ChatPromptTemplate.from_messages([
    ("system", "You are the technical writer"),
    ("user", "{input}")  # {input}为变量
])

# 我们可以把prompt和具体llm的调用和在一起（通过chain，chain可以理解为sequence of calls to take）
chain = prompt | llm
res = chain.invoke({"input": "What is the Sora model?"})

print(res)
