from common.openai_ali import get_client

llm = get_client()
"""
模板化提示：
以下是输入内容：
{input}
请基于上述输入生成以下输出：
{output}
"""

#定义提示生成函数
def generate_prompt_response(prompt):
    response = llm.chat.completions.create(
        model="qwen-plus",  # 指定模型
        messages=[
            {'role': 'user', 'content': f'{prompt}'}
        ],
        stream=False  # 非流式输出
    )
    return response.choices[0].message.content

#  示例1：直接提示
direct_prompt = "请用一句话描述机器学习"
direct_response =generate_prompt_response(direct_prompt)
print("直接提示的结果：",direct_response)
# 示例2 ： Few-shot 提示
few_shot_prompt = """
示例：
输入:1+1=
输出：2
输入：2+ 3=
输出： 5
"""
few_shot_response = generate_prompt_response(few_shot_prompt)
print("few_shot提示的结果：",few_shot_response)
#示例3： 动态提示
user_input = "天气如何"
dynamic_prompt = f"用户输入:{user_input}\n请生成关于天气的回答，包含当前温度和天气状况."
dynamic_response = generate_prompt_response(dynamic_prompt)
print("动态提示的结果：",dynamic_response)