7B模型family上运行的结果远比本地部署的好

#4
by mcmoo - opened

请问能把family上的7B模型开放出来吗,family上的7B模型经过测试真的不错,在文本相似词的识别任务上几乎能与chatgpt3.5持平,但是本地部署版本一塌糊涂,甚至无法使用。

LlamaFamily org

你好,确实是一个模型。加我微信zhangzheng-thu,我来指导你,但是确实是一个模型。family 上的7B 是昨天中午更新了一版,这个版本也正在往hf上传

你好,确实是一个模型。加我微信zhangzheng-thu,我来指导你,但是确实是一个模型。family 上的7B 是昨天中午更新了一版,这个版本也正在往hf上传

最好还是完善下,让使用容易些, 用了很多家的模型Atom-7B-Chat 是唯一部署失败的。
便携的部署才能传播的更广

在Atom工作人员协助下,问题解决了。
原因是:github下载的gradio 和网站上的部署方式有差别,gradio 里面的输入的长度进行了截断:
input_ids = tokenizer([prompt], return_tensors="pt",add_special_tokens=False).input_ids[:,-512:].to('cuda')
input_ids -是 从 tokenizer 的输出中提取 input_ids,是将文本转换为模型可接受的整数序列的表示。
[:, -512:] - 选择 input_ids 的最后 512 个元素。这是因为模型有最大的输入长度限制,这里选择最后的部分。
而我输入的promt超过了512个元素,改成 input_ids[:,-4096:]就问题就解决了,效果还是不错的。

LlamaFamily org

你好,确实是一个模型。加我微信zhangzheng-thu,我来指导你,但是确实是一个模型。family 上的7B 是昨天中午更新了一版,这个版本也正在往hf上传

最好还是完善下,让使用容易些, 用了很多家的模型Atom-7B-Chat 是唯一部署失败的。
便携的部署才能传播的更广

感谢反馈,最好能说明一下失败的情况,我们及时调整。因为模型的基础架构与llama基本上没有区别。所以部署都可以兼容llama。

我怀疑根本就是两个模型,一个用来给你看的,一个是卖的,效果天差地别,驴头不对马嘴。真心浪费自己的时间

Sign up or log in to comment