chatglm2-6b-32k

#7
by JaheimLee - opened

首先感谢开发者如此出色的工作!
官方现在出32k文本长度的新版本了,考虑用新版本再迭代一个吗?

本模型训练时,采用的的方法与32k新版本的训练方式有类似之处,context的长度远程 4k,8k,16k,也许是32k 或者跟多,可能是无长度限制,具体长度只依赖显存容量。

但1代模型不能进行高效的多轮对话训练,直接拿来用可以,做二次开发就不行了

我的模型没有这个问题,无限轮次多轮对话,这些问题,早解决了

JaheimLee changed discussion status to closed

Sign up or log in to comment