from autogen import UserProxyAgent, ConversableAgent, config_list_from_json, LLMConfig


def main():
    with open(r'提示词.txt', encoding='utf-8') as f:
        jiudan = f.readlines()
        jiudan = str(jiudan)
    # Load LLM inference endpoints from an env variable or a file
    # 从文件或者环境变量中加载 LLM 的推理端点
    config_list = config_list_from_json(env_or_file="OAI_CONFIG_LIST.json")
    # 利用 LLM 来创建一个 Assistant Agent,这个 LLM 是在上面的配置文件里指定的。
    assistant = ConversableAgent("agent", llm_config={"config_list": config_list}, system_message=jiudan)
    # 创建一个用户代理，这个用户代理就代表你，你可以随时加入对话中
    user_proxy = UserProxyAgent("user", code_execution_config=False)
    # 让 assistant 来开始这个对话，如果用户输入 exit，那么对话就会被终止。
    assistant.initiate_chat(user_proxy, message="欢迎来到私人健康助手")
if __name__ == "__main__":
    main()
