import os
from langchain_community.chat_models import ChatTongyi
from langchain_core.messages import HumanMessage, SystemMessage
from langchain_core.output_parsers import StrOutputParser

# 1、读取环境变量配置的api_key和url
AI_QW_KEY = os.getenv("AI_QW_KEY")
AI_QW_URL =os.getenv("AI_QW_URL")


# 设置通义千问的 API Key
os.environ["DASHSCOPE_API_KEY"] = AI_QW_KEY # 替换为你的 API Key
# 可选：设置通义千问的 API 端点（如果需要）
os.environ["DASHSCOPE_ENDPOINT"] = AI_QW_URL

# 调用大语言模型
# 1、创建模型实例
model = ChatTongyi()

#model = ChatOpenAI(model='gpt-4-turbo') OpenAI用这个

# 2、准备prompt
messages = [
    SystemMessage(content="将下面内容翻译成日语。"),
    HumanMessage(content="你好，吃饭了没")
]

response = model.invoke(messages)
#打印：content='こんにちは、ご飯は食べましたか？' additional_kwargs={} response_metadata={'model_name': 'qwen-turbo', 'finish_reason': 'stop', 'request_id': '69d5614e-e91b-4c26-98d9-6d906b99768a', 'token_usage': {'input_tokens': 30, 'output_tokens': 9, 'total_tokens': 39, 'prompt_tokens_details': {'cached_tokens': 0}}} id='run--47c795c9-fdf0-4962-85bb-87bd998b0385-0'
#print(response)



# 简单的解析响应数据
# 3、创建返回的数据解析器，提取content的内容
parser = StrOutputParser()
# StrOutputParser响应: こんにちは、ご飯は食べましたか。
print("StrOutputParser响应:", parser.invoke(response))