import os
from openai import OpenAI

client = OpenAI(
    # 若没有配置环境变量，请用百炼API Key将下行替换为：api_key="sk-xxx",
    api_key=os.getenv("DASHSCOPE_API_KEY"),
    base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",
)
completion = client.chat.completions.create(
    model="qwen-plus",  # 此处以qwen-plus为例，可按需更换模型名称。模型列表：https://help.aliyun.com/zh/model-studio/getting-started/models
    messages=[{'role': 'system', 'content': '你是教育专家'},
              {'role': 'user', 'content': '在上课的时候,如何让学生不睡觉?'}],
    stream=True,  # 开启流式返回
    stream_options={"include_usage": True},
    temperature=0.6,
    max_tokens=1024
)

full_response = ""
for chunk in completion:
    print(chunk.model_dump_json())
    choices_list = chunk.choices
    if choices_list and len(choices_list) > 0:
        content = chunk.choices[0].delta.content
        if content:
            full_response += content

print(f"完整结果:{full_response}")

#项目中集成单轮对话和流式输出
#在前端页面加一个问答页面--》用户输入问题---》调用后端接口---》后端接受问题调用通义千问大模型---》大模型返回结果--》接口返回数据---》渲染到页面

##设计接口:  参数[问题:str,用户标识] 请求方式 [post]    业务处理  返回值 json, {"code":1/0,message:"成功/失败","data":答案}
