from langchain_community.llms.tongyi import Tongyi
from langchain_core.prompts import PromptTemplate,ChatPromptTemplate
import os

llm= Tongyi(
    api_key=os.getenv("DASHSCOPE_API_KEY"),
    model="qwen-plus",
)

prompt=PromptTemplate.from_template(
    """
    你是一个医疗助手，请根据用户的问题，给出一个专业的回答
    用户问题：{user_input}
    """
)

chain = prompt | llm

response=chain.invoke({'user_input':'我感冒了,你有什么好的建议吗？'})

print(response)


