和论文中提供的设定不一致

#3
by Kaguya-19 - opened

整理对比预训练数据集是一项伟大的工作,非常感谢您的付出。但我有一些疑惑,本分支中falcon,skypile,stackoverflow,newsroom等数据集并没有在论文https://arxiv.org/pdf/2501.01028 Table8中出现,我们在训练时使用了这些数据集吗?非常感谢您

HITsz-Text Machine Group org

但我有一些疑惑,本分支中falcon,skypile,stackoverflow,newsroom等数据集并没有在论文https://arxiv.org/pdf/2501.01028 Table8中出现,我们在训练时使用了这些数据集吗?

感谢您的关注与支持。

本分支中falcon,skypile,stackoverflow,newsroom等数据集确实没有在论文中提及,这是由于这些数据集是后续新增的,但经过我们处理后进行一并开源以方便大家使用。
论文中列举的详细列表即为该开源模型当时所使用的训练数据构成。此外另一个小细节是开源的每个数据集为完整规模,预训练时所使用的样本为下采样100M的规模,在训练参数中设置了 --max_example_num_per_dataset 100000000

需要注意的是对比预训练是一个成本较高的操作,我们在过程中的多次尝试也不一定保证每次都能取得很好的效果,我们提供的技术报告主要为了展现一种可行的方案,但不必墨守成规。更多更优质的数据和更合理的配比方案可能是一个更好的选择,这也需要开源社区的共同努力和探索以推动Embedding模型的发展。

非常感谢!

Kaguya-19 changed discussion status to closed

Sign up or log in to comment