--- license: apache-2.0 datasets: - BelleGroup/train_1M_CN language: - zh library_name: transformers --- ## 介绍 1. 模型名称:`xiaoheizi`(`小黑子`),现在国内的大模型起的名字一个比一个厉害,那我们和别人做点不一样的,主打一个随意~ 2. 模型参数量:是一个参数量为`3B`的模型 3. 模型:模型基于[`dolly_v2_3b`](https://huggingface.co/databricks/dolly-v2-3b)模型,而`dolly_v2_3b`模型本质上就是[`gpt_neox`](https://huggingface.co/models?other=gpt_neox)模型 4. 数据:基于[`BelleGroup/train_1M_CN`](https://huggingface.co/datasets/BelleGroup/train_1M_CN)数据做的训练 5. 商用:可以商用 6. GitHub仓库:本项目的训练和推理代码已经全部开源[https://github.com/yuanzhoulvpi2017/zero_nlp/blob/main/chinese_dolly_v2_3b](https://github.com/yuanzhoulvpi2017/zero_nlp/blob/main/chinese_dolly_v2_3b) ## 使用方法 ### 推理 #### step1 ```bash git clone git@github.com:yuanzhoulvpi2017/zero_nlp.git cd chinese_dolly_v2_3b ``` #### step2 ```python from transformers import GPTNeoXForCausalLM,AutoTokenizer from dolly.generate import generate_response,load_model_tokenizer_for_generate import torch model, tokenizer = load_model_tokenizer_for_generate(pretrained_model_name_or_path="yuanzhoulvpi/xiaoheizi-3b") for i in range(10): print("*" * 100) res = generate_response(instruction="列出三个在二十世纪被认为是最伟大的小说之一的书名,以及它们的作者。", model=model,tokenizer=tokenizer) print(res) torch.cuda.empty_cache() # **************************************************************************************************** # - 《致命招若众》 by 黄伟作为一部历史传说学者的作品,创作于 1898 年。 # - 《讲故事人生》 by 苏珊作为一部历史传说,近年的迈克尔·道尔莎尼的重装作品,创作于1999年。 # - 《金头银头》 by 洛克菲尔德·迪伊纳作为一部小说、小说之旅、花园小说家之一,创作于1958年。 ``` ### 训练 1. 使用`trainer_dolly.py`文件训练即可