Datasets:
zcy
commited on
Commit
·
b5f988b
1
Parent(s):
497a2a5
docs: add complete project documentation and pipeline diagram
Browse files- README.md +129 -1
- assets/ultradata-math-pipeline.png +3 -0
README.md
CHANGED
|
@@ -17,4 +17,132 @@ tags:
|
|
| 17 |
- data-filtering
|
| 18 |
- high-quality
|
| 19 |
- mathematical-reasoning
|
| 20 |
-
---
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 17 |
- data-filtering
|
| 18 |
- high-quality
|
| 19 |
- mathematical-reasoning
|
| 20 |
+
---
|
| 21 |
+
|
| 22 |
+
# UltraData-Math
|
| 23 |
+
|
| 24 |
+
<div align="center">
|
| 25 |
+
<img src="assets/ultradata-math-logo.png" width="600"/>
|
| 26 |
+
</div>
|
| 27 |
+
|
| 28 |
+
<div align="center">
|
| 29 |
+
|
| 30 |
+
[📜 技术报告](https://arxiv.org/abs/xxxx.xxxxx) | [📄 MiniCPM 论文](https://huggingface.co/papers/2506.07900) | [💻 代码仓库](https://github.com/openbmb/UltraData-Math) | [🌐 项目主页](https://huggingface.co/collections/openbmb/minicpm-4-6841ab29d180257e940baa9b)
|
| 31 |
+
|
| 32 |
+
</div>
|
| 33 |
+
|
| 34 |
+
## 📚 简介
|
| 35 |
+
|
| 36 |
+
高质量预训练数据对提升大语言模型的数学推理能力至关重要。然而,现有数学预训练数据构建方案存在以下不足:
|
| 37 |
+
|
| 38 |
+
- **HTML 解析层面**:通用提取器(如 trafilatura、readability)主要面向新闻/文章场景设计,对数学公式等内容缺乏专门处理,常导致公式结构破坏或丢失;同时论坛类页面的数学讨论部分,难以完整提取。
|
| 39 |
+
- **数据质量层面**:现有数据集普遍缺乏系统的质量分级机制,高价值数学内容与低质噪声混杂。
|
| 40 |
+
- **数据多样性层面**:主流数据集多源自教科书或竞赛题库,缺少真实网页中的数学讨论与应用场景;合成数据格式单一,难以覆盖多轮对话、多风格表达等多样化需求。
|
| 41 |
+
|
| 42 |
+
针对上述问题,我们提出 ***UltraData-Math***——一个面向数学推理任务的大规模高质量预训练数据集。本数据集基于 [Ultra-Data](xxx)的L0-L4 分级数据处理框架开发,包含四个递进层级:(1) L0 原始数据层,基于 *magic-html* 开发数学解析器,结合 *w3m* 布局保持渲染与多级回退策略,将 MathML、KaTeX、AsciiMath 标准化为 LaTeX 格式;(2) L1 过滤数据层,通过启发式规则清洗噪声并进行文档级去重;(3) L2 精筛数据层,使用闭源大模型标注种子数据并蒸馏至轻量 Embedding 分类器,实现全量语料的高效质量分级;(4) L3 合成数据层,基于多模型集成生成 Q&A、多轮对话、多风格改写、知识接地教材等多种格式的合成数据。实验表明,在 MiniCPM-1B 架构上,***UltraData-Math*** 在 MATH 基准上达到 **37.02** 分,相较 Nemotron-CC 4plus 提升 **+3.62** 分;在 GSM8K 上达到 **61.79** 分,提升 **+3.34** 分,同时保持代码生成与通用知识能力。
|
| 43 |
+
|
| 44 |
+
***UltraData-Math*** 已应用于 [MiniCPM 系列](https://huggingface.co/collections/openbmb/minicpm-4-6841ab29d180257e940baa9b) 模型的数学预训练。
|
| 45 |
+
|
| 46 |
+
|
| 47 |
+
## 🏗️ 数据处理流水线
|
| 48 |
+
|
| 49 |
+
为突破现有数学数据集在质量与多样性上的局限,我们建立了一套以"数学内容完整性"和"信息密度"为核心的精细化分级标准。***UltraData-Math*** 采用了xxxxx(这里给UltraData占位)提出的 **L0-L4 数据分级体系**,通过标准化的层级定义,实现数学数据资产的有序管理与高效流转。每一级都代表了更高的数据纯度与数学价值,同时也对应着更精细的加工程度。
|
| 50 |
+
|
| 51 |
+
<div align="center">
|
| 52 |
+
<img src="assets/ultradata-math-pipeline.png" width="900"/>
|
| 53 |
+
</div>
|
| 54 |
+
|
| 55 |
+
### L0:原始数据解析与标准化
|
| 56 |
+
|
| 57 |
+
**目标**:解决通用 HTML 解析器对数学公式支持不佳的问题,最大限度保留网页中的数学语义。
|
| 58 |
+
|
| 59 |
+
L0 阶段主要处理从 Common Crawl 等来源获取的原始网页数据。针对数学网页的特殊性,我们开发了专用的解析策略,而非直接使用通用的 trafilatura 或 readability。
|
| 60 |
+
|
| 61 |
+
- **统一解析模式 (Unified Parsing)**:自动识别页面类型,尽可能保证完整内容提取。
|
| 62 |
+
- **多级回退策略 (Multi-stage Fallback)**:为了防止解析失败导致数据丢失,我们实施了多级回退机制,确保在结构化解析失败时仍能捕获文本内容。
|
| 63 |
+
- **数学公式标准化 (Math Normalization)**:我们将网页中不同的数学表达统一转换为标准的 LaTeX 格式,实现了数据格式的归一化,便于模型统一学习。
|
| 64 |
+
|
| 65 |
+
### L1:启发式清洗与过滤
|
| 66 |
+
|
| 67 |
+
**目标**:去除格式噪声,提升数据的可读性和规范性。
|
| 68 |
+
|
| 69 |
+
在获取了包含完整数学公式的文本后,我们通过一系列启发式规则对 L0 数据进行清洗:
|
| 70 |
+
|
| 71 |
+
- **格式修复 (Mapper)**:
|
| 72 |
+
- 清理不可见字符、乱码及非自然的连续换行。
|
| 73 |
+
- 移除导航栏、页脚、广告弹窗及"阅读更多"等无关网页噪音。
|
| 74 |
+
- **内容过滤 (Filter)**:
|
| 75 |
+
- *长度过滤*:移除过短的文本片段,这些片段通常缺乏上下文,难以支持有效的数学推理训练。
|
| 76 |
+
- *语言识别*:确保数据集主要由高质量的英文及中文数学内容组成。
|
| 77 |
+
- *文档去重*:在文档级别进行去重,防止重复内容对模型训练造成偏差。
|
| 78 |
+
|
| 79 |
+
### L2:基于质量模型的精选
|
| 80 |
+
|
| 81 |
+
**目标**:从海量数据中识别出具有高价值的核心语料。
|
| 82 |
+
|
| 83 |
+
L1 数据虽然格式整洁,但内容质量参差不齐。L2 阶段引入了基于模型的质量评估体系:
|
| 84 |
+
|
| 85 |
+
- **种子数据标注**:使用闭��大模型对一部分种子数据进行多维度打分,关注多个维度。
|
| 86 |
+
- **分类器训练与蒸馏**:基于标注数据训练轻量级的 Embedding 分类器,使其具备识别高价值数学内容的能力。
|
| 87 |
+
- **全量推理**:使用训练好的分类器对 L1 数据进行全量打分与筛选。
|
| 88 |
+
- *保留*:包含详细解题步骤、数学概念解释、高水平学术讨论的内容。
|
| 89 |
+
- *剔除*:简单的名词堆砌、无意义的数字列表、低幼或非数学领域的噪声。
|
| 90 |
+
|
| 91 |
+
### L3:合成与增强数据
|
| 92 |
+
|
| 93 |
+
**目标**:通过合成数据弥补自然语料在格式和场景上的单一性,强化模型的推理链条(CoT)能力。
|
| 94 |
+
|
| 95 |
+
自然网页数据多为陈述性文本,为了增强模型的指令遵循和多轮交互能力,我们构建了 L3 合成数据层:
|
| 96 |
+
|
| 97 |
+
- **Q&A 对生成**:利用高性能模型将陈述性文档改写为"问题-回答"对,构建QA风格的数据。
|
| 98 |
+
- **多轮对话合成**:模拟"老师-学生"的辅导场景,生成包含追问、纠错、引导的多轮对话数据。
|
| 99 |
+
- **多风格改写**:将单一来源的数据改写为多种风格(如教科书严谨风格、竞赛解题风格、科普直观风格),提升模型的泛化能力。
|
| 100 |
+
- **知识点教材生成**:基于特定知识点生成系统化的教材类内容,确保模型掌握核心数学概念。
|
| 101 |
+
|
| 102 |
+
| 数据集 | # Tokens | # Documents |
|
| 103 |
+
|:---|:---:|:---:|
|
| 104 |
+
| UltraData-Math-L1 | 159.4B | 85.56M |
|
| 105 |
+
| UltraData-Math-L3 | 37.1B | 31.87M |
|
| 106 |
+
|
| 107 |
+
## 📈 实验结果
|
| 108 |
+
|
| 109 |
+
我们采用 **MiniCPM-1.2B** 模型架构与**MiniCPM3-4B**分词器进行实验验证。每个实验均在 **1000 亿 Token** 的训练量下进行,从而能在计算效率可控的参数范围内对数据性能进行全面验证。我们使用Lighteval库进行模型评估,所有评估指标均基于 **Zero-Shot** 设置。评估基准包括:
|
| 110 |
+
|
| 111 |
+
- **数学推理:** GSM8K、MATH、R-Bench、Math-Bench
|
| 112 |
+
- **代码生成:** HumanEval、MBPP
|
| 113 |
+
- **综合知识:** MMLU、MMLU-STEM
|
| 114 |
+
|
| 115 |
+
### L0 解析器消融实验
|
| 116 |
+
|
| 117 |
+
基于相同来源数据,我们使用不同解析器分别提取后独立训练,直接对比解析策略的效果差异:
|
| 118 |
+
|
| 119 |
+
| 解析器 | 平均分 | MMLU | GSM8K | HumanEval | math | mbpp_full | mmlu-stem |
|
| 120 |
+
|:---|:---:|:---:|:---:|:---:|:---:|:---:|:---:|
|
| 121 |
+
| **UltraData-Math-L0-parser (Ours)** | **43.44** | 51.41 | 54.97 | **31.71** | **28.72** | 47.10 | 46.76 |
|
| 122 |
+
| trafilatura + w3m | 42.33 | 50.95 | 54.51 | 27.44 | 27.64 | 47.93 | 45.52 |
|
| 123 |
+
| trafilatura | 42.44 | 51.42 | 56.03 | 26.83 | 28.08 | 45.64 | 46.62 |
|
| 124 |
+
| Megamath | 42.32 | 51.46 | 54.06 | 29.88 | 26.04 | 45.64 | 46.81 |
|
| 125 |
+
| magic-html + w3m | 41.29 | 51.23 | 51.63 | 26.83 | 26.58 | 45.02 | 46.45 |
|
| 126 |
+
|
| 127 |
+
### 完整评测结果
|
| 128 |
+
|
| 129 |
+
我们使用单一数据集进行独立训练,以直接对比不同数据源的效果:
|
| 130 |
+
|
| 131 |
+
| 模型 | 平均分 | MMLU | GSM8K | HumanEval | math | mbpp_full | mmlu-stem | R-bench | Math-bench |
|
| 132 |
+
|:---|:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:|
|
| 133 |
+
| **UltraData-Math (Ours)** | **43.79** | 51.67 | **61.79** | 32.93 | **37.02** | **49.27** | 45.93 | 23.38 | **48.33** |
|
| 134 |
+
| Nemotron-cc 4plus mind | 43.45 | 52.09 | 59.97 | 34.76 | 35.96 | 48.03 | 45.99 | 23.51 | 47.25 |
|
| 135 |
+
| Nemotron-cc 4plus | 42.62 | 51.96 | 58.45 | 35.37 | 33.40 | 46.47 | 45.67 | 22.74 | 46.92 |
|
| 136 |
+
| MegaMath-Web-Pro | 41.38 | 53.16 | 56.71 | 31.71 | 32.12 | 47.10 | 47.15 | 21.23 | 41.83 |
|
| 137 |
+
| FineMath-4+ | 40.51 | 50.90 | 56.25 | 29.88 | 29.84 | 48.96 | 44.98 | 18.93 | 44.33 |
|
| 138 |
+
|
| 139 |
+
|
| 140 |
+
## ❤️ 致谢
|
| 141 |
+
|
| 142 |
+
- **L0 解析层**:[magic-html](https://github.com/opendatalab/magic-html)、[w3m](http://w3m.sourceforge.net/)、[trafilatura](https://github.com/adbar/trafilatura)
|
| 143 |
+
- **L3 合成层**:[Qwen2.5-72B-Instruct](https://huggingface.co/Qwen/Qwen2.5-72B-Instruct)、[Qwen3-32B](https://huggingface.co/Qwen/Qwen3-32B)、[GLM-4.5](https://huggingface.co/zai-org/GLM-4.5)
|
| 144 |
+
- **种子数据**:[Nemotron-CC-Math](https://huggingface.co/datasets/nvidia/Nemotron-CC-Math-v1)、[MegaMath](https://huggingface.co/datasets/LLM360/MegaMath)、[FineMath](https://huggingface.co/datasets/HuggingFaceTB/finemath)
|
| 145 |
+
|
| 146 |
+
## 📜 许可证
|
| 147 |
+
|
| 148 |
+
本项目基于 [Apache 2.0](./LICENSE) 许可证发布。
|
assets/ultradata-math-pipeline.png
ADDED
|
Git LFS Details
|