m3e-base / README.md
Howardxuan's picture
Update README.md
a554eee
|
raw
history blame
19.5 kB

M3E Models

M3E 是 Moka Massive Mixed Embedding 的缩写

  • Moka,此文本嵌入模型由 MokaAI 训练并开源,训练脚本使用 uniem
  • Massive,此文本嵌入模型通过千万级的中文句对数据集进行训练
  • Mixed,此文本嵌入模型支持中英双语的同质文本相似度计算,异质文本检索等功能,未来还会支持代码检索

使用方式

您需要先安装 sentence-transformers

pip install -U sentence-transformers

安装完成后,您可以使用以下代码来使用 M3E Models

from sentence_transformers import SentenceTransformer

model = SentenceTransformer('moka-ai/m3e-base')

#Our sentences we like to encode
sentences = [
    '* Moka 此文本嵌入模型由 MokaAI 训练并开源,训练脚本使用 uniem',
    '* Massive 此文本嵌入模型通过**千万级**的中文句对数据集进行训练',
    '* Mixed 此文本嵌入模型支持中英双语的同质文本相似度计算,异质文本检索等功能,未来还会支持代码检索,ALL in one'
]

#Sentences are encoded by calling model.encode()
embeddings = model.encode(sentences)

#Print the embeddings
for sentence, embedding in zip(sentences, embeddings):
    print("Sentence:", sentence)
    print("Embedding:", embedding)
    print("")

M3E 系列的所有模型在设计的时候就考虑到完全兼容 sentence-transformers ,所以你可以通过替换名称字符串的方式在所有支持 sentence-transformers 的项目中无缝使用 M3E Models,比如 chroma, guidance, semantic-kernel

训练方案

M3E 使用 in-batch 负采样的对比学习的方式在句对数据集进行训练,为了保证 in-batch 负采样的效果,我们使用 A100 80G 来最大化 batch-size,并在共计 2200W+ 的句对数据集上训练了 1 epoch。训练脚本使用 uniem,您可以在这里查看具体细节。

特性

  • 中文训练集,M3E 在大规模句对数据集上的训练,包含中文百科,金融,医疗,法律,新闻,学术等多个领域共计 2200W 句对样本,数据集详见 M3E 数据集
  • 英文训练集,M3E 使用 MEDI 145W 英文三元组数据集进行训练,数据集详见 MEDI 数据集,此数据集由 instructor team 提供
  • 指令数据集,M3E 使用了 300W + 的指令微调数据集,这使得 M3E 对文本编码的时候可以遵从指令,这部分的工作主要被启发于 instructor-embedding
  • 基础模型,M3E 使用 hfl 实验室的 Roberta 系列模型进行训练,目前提供 small 和 base 两个版本,大家则需选用
  • ALL IN ONE,M3E 旨在提供一个 ALL IN ONE 的文本嵌入模型,不仅支持同质句子相似度判断,还支持异质文本检索,你只需要一个模型就可以覆盖全部的应用场景,未来还会支持代码检索

评测

coming soon,我们正在准备中文文本嵌入模型评测 BenchMark MTEB-zh,敬请期待

M3E数据集

如果您想要使用这些数据集,你可以在 uniem process_zh_datasets 中找到加载 huggingface 数据集的脚本,非 huggingface 数据集需要您根据下方提供的链接自行下载和处理。

数据集名称 领域 数量 任务类型 Prompt 质量 数据提供者 说明 是否开源/研究使用 是否商用 脚本 Done URL 是否同质
cmrc2018 百科 14,363 问答 问答 Yiming Cui, Ting Liu, Wanxiang Che, Li Xiao, Zhipeng Chen, Wentao Ma, Shijin Wang, Guoping Hu https://github.com/ymcui/cmrc2018/blob/master/README_CN.md 专家标注的基于维基百科的中文阅读理解数据集,将问题和上下文视为正例 https://huggingface.co/datasets/cmrc2018
belle_2m 百科 2,000,000 指令微调 LianjiaTech/BELLE belle 的指令微调数据集,使用 self instruct 方法基于 gpt3.5 生成 https://huggingface.co/datasets/BelleGroup/train_2M_CN
firefily 百科 1,649,399 指令微调 YeungNLP Firefly(流萤) 是一个开源的中文对话式大语言模型,使用指令微调(Instruction Tuning)在中文数据集上进行调优。使用了词表裁剪、ZeRO等技术,有效降低显存消耗和提高训练效率。 在训练中,我们使用了更小的模型参数量,以及更少的计算资源。 未说明 未说明 https://huggingface.co/datasets/YeungNLP/firefly-train-1.1M
alpaca_gpt4 百科 48,818 指令微调 Baolin Peng, Chunyuan Li, Pengcheng He, Michel Galley, Jianfeng Gao 本数据集是参考Alpaca方法基于GPT4得到的self-instruct数据,约5万条。 https://huggingface.co/datasets/shibing624/alpaca-zh
zhihu_kol 百科 1,006,218 问答 问答 wangrui6 知乎问答 未说明 未说明 https://huggingface.co/datasets/wangrui6/Zhihu-KOL
hc3_chinese 百科 39,781 问答 问答 Hello-SimpleAI 问答数据,包括人工回答和 GPT 回答 未说明 https://huggingface.co/datasets/Hello-SimpleAI/HC3-Chinese
amazon_reviews_multi 电商 210,000 问答 文本分类 摘要 亚马逊 亚马逊产品评论数据集 https://huggingface.co/datasets/amazon_reviews_multi/viewer/zh/train?row=8
mlqa 百科 85,853 问答 问答 patrickvonplaten 一个用于评估跨语言问答性能的基准数据集 未说明 https://huggingface.co/datasets/mlqa/viewer/mlqa-translate-train.zh/train?p=2
xlsum 新闻 93,404 摘要 摘要 BUET CSE NLP Group BBC的专业注释文章摘要对 https://huggingface.co/datasets/csebuetnlp/xlsum/viewer/chinese_simplified/train?row=259
ocnli 口语 17,726 自然语言推理 推理 Thomas Wolf 自然语言推理数据集 https://huggingface.co/datasets/clue/viewer/ocnli
BQ 金融 60,000 文本分类 相似 Intelligent Computing Research Center, Harbin Institute of Technology(Shenzhen) http://icrc.hitsz.edu.cn/info/1037/1162.htm BQ 语料库包含来自网上银行自定义服务日志的 120,000 个问题对。它分为三部分:100,000 对用于训练,10,000 对用于验证,10,000 对用于测试。 数据提供者: 哈尔滨工业大学(深圳)智能计算研究中心 https://huggingface.co/datasets/shibing624/nli_zh/viewer/BQ
lcqmc 口语 149,226 文本分类 相似 Ming Xu 哈工大文本匹配数据集,LCQMC 是哈尔滨工业大学在自然语言处理国际顶会 COLING2018 构建的问题语义匹配数据集,其目标是判断两个问题的语义是否相同 https://huggingface.co/datasets/shibing624/nli_zh/viewer/LCQMC/train
paws-x 百科 23,576 文本分类 相似 Bhavitvya Malik PAWS Wiki中的示例 https://huggingface.co/datasets/paws-x/viewer/zh/train
wiki_atomic_edit 百科 1,213,780 平行语义 相似 abhishek thakur 基于中文维基百科的编辑记录收集的数据集 未说明 未说明 https://huggingface.co/datasets/wiki_atomic_edits
chatmed_consult 医药 549,326 问答 问答 Wei Zhu 真实世界的医学相关的问题,使用 gpt3.5 进行回答 https://huggingface.co/datasets/michaelwzhu/ChatMed_Consult_Dataset
webqa 百科 42,216 问答 问答 suolyer 百度于2016年开源的数据集,数据来自于百度知道;格式为一个问题多篇意思基本一致的文章,分为人为标注以及浏览器检索;数据整体质量中,因为混合了很多检索而来的文章 未说明 https://huggingface.co/datasets/suolyer/webqa/viewer/suolyer--webqa/train?p=3
dureader_robust 百科 65,937 机器阅读理解 问答 问答 百度 DuReader robust旨在利用真实应用中的数据样本来衡量阅读理解模型的鲁棒性,评测模型的过敏感性、过稳定性以及泛化能力,是首个中文阅读理解鲁棒性数据集。 https://huggingface.co/datasets/PaddlePaddle/dureader_robust/viewer/plain_text/train?row=96
csl 学术 395,927 语料 摘要 Yudong Li, Yuqing Zhang, Zhe Zhao, Linlin Shen, Weijie Liu, Weiquan Mao and Hui Zhang 提供首个中文科学文献数据集(CSL),包含 396,209 篇中文核心期刊论文元信息 (标题、摘要、关键词、学科、门类)。CSL 数据集可以作为预训练语料,也可以构建许多NLP任务,例如文本摘要(标题预测)、 关键词生成和文本分类等。 https://huggingface.co/datasets/neuclir/csl
miracl-corpus 百科 4,934,368 语料 摘要 MIRACL The corpus for each language is prepared from a Wikipedia dump, where we keep only the plain text and discard images, tables, etc. Each article is segmented into multiple passages using WikiExtractor based on natural discourse units (e.g., \n\n in the wiki markup). Each of these passages comprises a "document" or unit of retrieval. We preserve the Wikipedia article title of each passage. https://huggingface.co/datasets/miracl/miracl-corpus
lawzhidao 法律 36,368 问答 问答 和鲸社区-Ustinian 百度知道清洗后的法律问答 https://www.heywhale.com/mw/dataset/5e953ca8e7ec38002d02fca7/content
CINLID 成语 34,746 平行语义 相似 高长宽 中文成语语义推理数据集(Chinese Idioms Natural Language Inference Dataset)收集了106832条由人工撰写的成语对(含少量歇后语、俗语等短文本),通过人工标注的方式进行平衡分类,标签为entailment、contradiction和neutral,支持自然语言推理(NLI)的任务。 https://www.luge.ai/#/luge/dataDetail?id=39
DuSQL SQL 25,003 NL2SQL SQL 百度 DuSQL是一个面向实际应用的数据集,包含200个数据库,覆盖了164个领域,问题覆盖了匹配、计算、推理等实际应用中常见形式。该数据集更贴近真实应用场景,要求模型领域无关、问题无关,且具备计算推理等能力。 https://www.luge.ai/#/luge/dataDetail?id=13
Zhuiyi-NL2SQL SQL 45,918 NL2SQL SQL 追一科技 刘云峰 NL2SQL是一个多领域的简单数据集,其主要包含匹配类型问题。该数据集主要验证模型的泛化能力,其要求模型具有较强的领域泛化能力、问题泛化能力。 https://www.luge.ai/#/luge/dataDetail?id=12
Cspider SQL 7,785 NL2SQL SQL 西湖大学 张岳 CSpider是一个多语言数据集,其问题以中文表达,数据库以英文存储,这种双语模式在实际应用中也非常常见,尤其是数据库引擎对中文支持不好的情况下。该数据集要求模型领域无关、问题无关,且能够实现多语言匹配。 https://www.luge.ai/#/luge/dataDetail?id=11
news2016zh 新闻 2,507,549 语料 摘要 Bright Xu 包含了250万篇新闻。新闻来源涵盖了6.3万个媒体,含标题、关键词、描述、正文。 https://github.com/brightmart/nlp_chinese_corpus
baike2018qa 百科 1,470,142 问答 问答 Bright Xu 含有150万个预先过滤过的、高质量问题和答案,每个问题属于一个类别。总共有492个类别,其中频率达到或超过10次的类别有434个。 https://github.com/brightmart/nlp_chinese_corpus
webtext2019zh 百科 4,258,310 问答 问答 Bright Xu 含有410万个预先过滤过的、高质量问题和回复。每个问题属于一个【话题】,总共有2.8万个各式话题,话题包罗万象。 https://github.com/brightmart/nlp_chinese_corpus
SimCLUE 百科 775,593 平行语义 相似 数据集合,请在 simCLUE 中查看 整合了中文领域绝大多数可用的开源的语义相似度和自然语言推理的数据集,并重新做了数据拆分和整理。 https://github.com/CLUEbenchmark/SimCLUE
Chinese-SQuAD 新闻 76,449 机器阅读理解 问答 junzeng-pluto 中文机器阅读理解数据集,通过机器翻译加人工校正的方式从原始Squad转换而来 https://github.com/pluto-junzeng/ChineseSquad

Case Study

在T2Ranking上我们测试了M3E与其它中文Embedding模型的效果,输入query"请帮我找出边塞诗",来返回5个最相似的结果,仅M3E-small就可以检索出类似于“大漠孤烟直,长河落日圆”的诗歌文本,而文本中是不存在“边塞”字样。在text2vec-base-chinese测试,全部返回不相关的内容。还有一些有趣的例子,例如输入query“你知道变形金钢吗”,可以检索出擎天柱,战斗机,汽车人,而“变形金刚”并不存在于文本之中。

计划表

  • 完成 MTEB 中文评测 BenchMark
  • 完成 Large 模型的训练和开源
  • 完成支持代码检索的模型
  • 对 M3E 数据集进行清洗,保留高质量的部分,组成 m3e-hq,并在 huggingface 上开源
  • 在 m3e-hq 的数据集上补充 hard negative 的样本及相似度分数,组成 m3e-hq-with-score,并在 huggingface 上开源
  • 在 m3e-hq-with-score 上通过 cosent loss loss 进行训练并开源模型,CoSent 原理参考这篇博客
  • 开源商用版本的 M3E models

致谢

感谢开源社区提供的中文语料,感谢所有在此工作中提供帮助的人们,希望中文社区越来越好,共勉!

License

M3E models 使用的数据集中包括大量非商用的数据集,所以 M3E models 也是非商用的,仅供研究使用。不过我们已经在 M3E 数据集上标识了商用和非商用的数据集,您可以根据自己的需求自行训练。

Citation

Please cite this model using the following format: @software{Moka Massive Mixed Embedding, author = {Wang Yuxin,Sun Qingxuan,He sicheng}, title = {text2vec: A Tool for Text to Vector}, year = {2023} }