from langchain_community.chat_models import ChatOpenAI
import env_utils
from langchain_demo.my_llm import llm

# 本地私有化部署的大模型
# llm = ChatOpenAI(
#     model='qwen3-8b',
#     temperature=0.8,
#     api_key=env_utils.LOCAL_API_KEY,
#     base_url=env_utils.LOCAL_BASE_URL,
# )

# llm = ChatOpenAI(
#     model='qwen3-vl-30b-a3b-thinking',
#     temperature=0.8,
#     api_key=env_utils.OPENAI_API_KEY,
#     base_url=env_utils.OPENAI_BASE_URL,
# )

message = [
    ('system', '你是一个智能助手。'),
    ('human','请介绍一下什么是深度学习？')
]

resp = llm.invoke(message)
print(resp)

