BaoLuo-LawAssistant-sftglm-6b 宝锣法律大模型1.0

🌐 WEB • 💻 宝锣法律助理V1.0

介绍

宝锣法律大模型 是一个基于Encoder-Decoder开源的中文法律对话语言模型,使用开源法律领域的数据进行精调,能够提供法律法规检索、法律咨询、案情分析、罪名预测等服务。基于 General Language Model (GLM) 架构,对chatglm进行了微调,用户可以在消费级的显卡上进行本地部署。 本项目不支持商用,可做研究使用。

软件依赖

pip install protobuf==3.20.0 transformers>=4.27.1 icetk cpm_kernels torch==2.0.1

代码调用

可以通过如下代码调用 BaoLuo-LawAssistant-sftglm-6b 模型来生成对话:


>>> from transformers import AutoTokenizer, AutoModel, AutoConfig

>>> tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True)
>>> config = AutoConfig.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True, pre_seq_len=256)
>>> model = AutoModel.from_pretrained("THUDM/chatglm-6b", config=config, trust_remote_code=True).half().cuda()

>>> model = model.quantize(bits=8, kernel_file="xuanxuanzl/BaoLuo-LawAssistant-sftglm-6b/quantization_kernels.so")
>>> prefix_state_dict = torch.load(os.path.join("xuanxuanzl/BaoLuo-LawAssistant-sftglm-6b", "pytorch_model.bin"))
>>> new_prefix_state_dict = {}
>>> for k, v in prefix_state_dict.items():
    >>> if k.startswith("transformer.prefix_encoder."):
        >>> new_prefix_state_dict[k[len("transformer.prefix_encoder."):]] = v
>>> model.transformer.prefix_encoder.load_state_dict(new_prefix_state_dict)
>>> model.transformer.prefix_encoder.float()
>>> model = model.eval()

>>> response, history = model.chat(tokenizer, "你好", history=[])
>>> print(response)

协议

本仓库的代码依照 Apache-2.0 协议开源,ChatGLM-6B 模型的权重的使用则需要遵循 Model License

模型需要完善

  • 基准模型采用的性能不高,导致回复响应时间较长,下一步采用效率更高的基础模型。
  • 各服务功能的数据分布不均衡。
  • 各服务数据的重要指令设计不足。
  • 结合外部知识增强提升模型输出的准确度方面有欠缺。

更新日志



Downloads last month
19
Inference Providers NEW
This model is not currently available via any of the supported Inference Providers.
The model cannot be deployed to the HF Inference API: The HF Inference API does not support model that require custom code execution.