Thank you very much for your excellent work!非常感谢您的出色的工作!

#1
by wukongai - opened

This can serve as a starter learning model!
这个可以作为一个入门的学习模型!

另外,能否提供一下q8、q16的gguf量化权重,我想在cpu上跑一下,肯定非常欢快!

另外,能否提供一下q8、q16的gguf量化权重,我想在cpu上跑一下,肯定非常欢快!

But t5 models seem not to be able to transfer to GGUF format.
t5模型应该不能gguf量化,至少llama.cpp对其没有支持

另外,能否提供一下q8、q16的gguf量化权重,我想在cpu上跑一下,肯定非常欢快!

暂时没有发布量化模型的计划,发布的是float32权重,可以直接在cpu上进行推理,200M的参数在cpu上推理已经很快了。如果有需要,你可以自己做量化(可能需要cuda设备),安装'bitsandbytes':

# linux:  
pip install bitsandbytes

# windows
python -m pip install bitsandbytes --prefer-binary --extra-index-url=https://jllllll.github.io/bitsandbytes-windows-webui

8bit量化代码如下:

from transformers import AutoModelForSeq2SeqLM
model = AutoModelForSeq2SeqLM.from_pretrained('charent/ChatLM-mini-Chinese', trust_remote_code=True, device_map="auto",  load_in_8bit=True)
model.save_pretrained('./model_8bit')

收到,谢谢!

请问一下,RLHF训练过程的奖励模型在哪里体现呢 ?

Sign up or log in to comment