ChatGLM / docs /fastchat.md
y001j's picture
Upload 305 files
af9251e

fastchat 调用实现教程

langchain-ChatGLM 现已支持通过调用 FastChat API 进行 LLM 调用,支持的 API 形式为 OpenAI API 形式

  1. 首先请参考 FastChat 官方文档 进行 FastChat OpenAI 形式 API 部署

  2. 依据 FastChat API 启用时的 model_nameapi_base 链接,在本项目的 configs/model_config.pyllm_model_dict 中增加选项。如:

    llm_model_dict = {
            
        # 通过 fastchat 调用的模型请参考如下格式
        "fastchat-chatglm-6b": {
            "name": "chatglm-6b",  # "name"修改为fastchat服务中的"model_name"
            "pretrained_model_name": "chatglm-6b",
            "local_model_path": None,
            "provides": "FastChatOpenAILLM",  # 使用fastchat api时,需保证"provides"为"FastChatOpenAILLM"
            "api_base_url": "http://localhost:8000/v1"  # "name"修改为fastchat服务中的"api_base_url"
        },
    }
    

    其中 api_base_url 根据 FastChat 部署时的 ip 地址和端口号得到,如 ip 地址设置为 localhost,端口号为 8000,则应设置的 api_base_urlhttp://localhost:8000/v1

  3. configs/model_config.py 中的 LLM_MODEL 修改为对应模型名。如:

    LLM_MODEL = "fastchat-chatglm-6b"
    
  4. 根据需求运行 api.py, cli_demo.pywebui.py