import os
import openai

os.environ["OPENAI_API_KEY"] = "cc84cb87efef3e9903e8a30abf316b62"  # 将个人token替换到这个位置
os.environ["OPENAI_BASE_URL"] = "https://apitoken.ceba.ceshiren.com/openai/v1/"
os.environ["OPENAI_API_BASE"] = "https://apitoken.ceba.ceshiren.com/openai/v1/"

# 发送消息 model 是指定模型
# temperature 较低的temperature会产生更一致的输出（例如 0.2），而较高的值会产生更加多样化和创造性的结果（例如 1.0）。 根据您的特定应用的一致性和创造性之间所需的权衡选择温度值。 温度范围为 0 至 2。
def chat():
    lt_gpt = [
        {"role": "user", "content": "你是一个智能回答小助手"}
    ]

    while True:
        lt = input("输入你想聊的内容(输入break停止聊天):")

        if lt == "break":
            print("检测到已输入break,聊天停止")
            break
        else:
            lt_gpt.append({"role": "user", "content": lt})
            response = openai.chat.completions.create(
                model='gpt-3.5-turbo',
                messages=lt_gpt,
            )

            answer = response.choices[0].message.content
            print(answer, end="\n\n")


if __name__ == '__main__':
    chat()