from models.chat.load_chat_model import LoadModel


def main():
    # 创建 LoadModel 实例
    load_model = LoadModel()

    # 调用 load 方法
    load_model.load()

    history = []

    while True:
        # 用户输入
        query = input("\n\n用户：").strip()

        # 停止程序
        if query.lower() == "exit":
            break

        # 不换行输出
        print("ChatGLM：", end="")

        # 测试输出结果
        load_model.stream_chat(query, history, callback_function=lambda result: print(result, end="", flush=True))


if __name__ == "__main__":
    main()
