ScienceMetaBench / README_ZH.md
sjshailab
update
f6da3ce

ScienceMetaBench

English | 中文

🤗 HuggingFace Dataset | 💻 GitHub Repository

ScienceMetaBench 是一个用于评估从 PDF 文件中提取科学文献元数据准确性的基准测试数据集。该数据集涵盖学术论文、教材和电子书三大类别,可用于评估大语言模型(LLM)或其他信息提取系统的性能。

📊 数据集概览

数据类型

本基准测试包含三种类型的科学文献:

  1. 学术论文 (Paper)

    • 主要来自学术期刊和会议
    • 包含 DOI、关键词等学术元数据
  2. 教材 (Textbook)

    • 正式出版的教科书
    • 包含 ISBN、出版社等出版信息
  3. 电子书 (Ebook)

    • 数字化的历史文献和图书
    • 覆盖多语言、多学科领域

数据批次

本基准测试经过两次数据扩充,每次扩充都增加了新的样本数据:

data/
├── 20250806/          # 第一批数据(2024年8月6日)
│   ├── ebook_0806.jsonl
│   ├── paper_0806.jsonl
│   └── textbook_0806.jsonl
└── 20251022/          # 第二批数据(2024年10月22日)
    ├── ebook_1022.jsonl
    ├── paper_1022.jsonl
    └── textbook_1022.jsonl

:两批数据相互补充,共同构成完整的基准测试数据集,可根据需要选择使用单批或合并使用。

PDF 文件

pdf/ 目录包含与基准数据对应的原始 PDF 文件,目录结构与 data/ 目录保持一致。

文件命名规则:所有 PDF 文件以其 SHA256 哈希值命名,格式为 {sha256}.pdf。这种命名方式确保了文件的唯一性和可追溯性,便于通过 JSONL 数据中的 sha256 字段定位对应的源文件。

📝 数据格式

所有数据文件采用 JSONL 格式(每行一个 JSON 对象)。

学术论文字段

{
  "sha256": "文件的 SHA256 哈希值",
  "doi": "数字对象标识符",
  "title": "论文标题",
  "author": "作者姓名",
  "keyword": "关键词(逗号分隔)",
  "abstract": "摘要内容",
  "pub_time": "发表年份"
}

教材/电子书字段

{
  "sha256": "文件的 SHA256 哈希值",
  "isbn": "国际标准书号",
  "title": "书名",
  "author": "作者姓名",
  "abstract": "简介/摘要",
  "category": "分类号(如中图分类法)",
  "pub_time": "出版年份",
  "publisher": "出版社"
}

📖 数据示例

学术论文示例

下图展示了从学术论文 PDF 中提取的元数据字段示例:

学术论文示例

如图所示,需要从论文首页提取以下关键信息:

  • DOI:数字对象标识符(如 10.1186/s41038-017-0090-z
  • Title:论文标题
  • Author:作者姓名
  • Keyword:关键词列表
  • Abstract:论文摘要
  • pub_time:发表时间(通常为年份)

教材/电子书示例

下图展示了从中文电子书 PDF 版权页中提取的元数据字段示例:

教材示例

如图所示,需要从图书版权页提取以下关键信息:

  • ISBN:国际标准书号(如 978-7-5385-8594-0
  • Title:书名
  • Author:作者/编者姓名
  • Publisher:出版社名称
  • pub_time:出版时间(年份)
  • Category:图书分类号
  • Abstract:内容简介(如有)

这些示例展示了 benchmark 测试的核心任务:从各种格式和语言的 PDF 文档中准确提取结构化的元数据信息。

📊 评估指标

核心评估指标

本基准测试采用基于字符串相似度的评估方法,提供两个核心指标:

相似度计算规则

本基准测试使用基于 SequenceMatcher 的字符串相似度算法,具体规则如下:

  1. 空值处理:一个为空另一个不为空 → 相似度为 0
  2. 完全匹配:两者完全相同(包括都为空)→ 相似度为 1
  3. 忽略大小写:比较前统一转换为小写
  4. 序列匹配:使用最长公共子序列算法计算相似度(范围:0-1)

相似度分数解读

  • 1.0:完全匹配
  • 0.8-0.99:高度相似(可能存在小的格式差异)
  • 0.5-0.79:部分匹配(提取了主要信息但不完整)
  • 0.0-0.49:低相似度(提取结果与标准答案差异较大)

1. 各字段准确率(Field-level Accuracy)

定义:每个元数据字段的平均相似度分数。

计算方式

各字段准确率 = Σ(该字段在所有样本上的相似度) / 样本总数

示例:假设在 100 个样本上评估 title 字段,每个样本的 title 相似度累加后除以 100,得到该字段的准确率。

用途

  • 识别模型在哪些字段上表现较好或较差
  • 针对性地优化特定字段的提取能力
  • 例如:如果 doi 准确率为 0.95,abstract 准确率为 0.75,说明模型在提取摘要时需要改进

2. 总体准确率(Overall Accuracy)

定义:所有评估字段准确率的平均值,反映模型的整体性能。

计算方式

总体准确率 = Σ(各字段准确率) / 字段总数

示例:评估 7 个字段(isbn, title, author, abstract, category, pub_time, publisher),将这 7 个字段的准确率相加后除以 7。

用途

  • 提供模型整体性能的单一量化指标
  • 方便不同模型或方法之间的横向比较
  • 作为模型优化的总体目标

使用评估脚本

compare.py 提供了便捷的评估接口:

from compare import main, write_similarity_data_to_excel

# 定义文件路径和要比较的字段
file_llm = 'data/llm-label_textbook.jsonl'      # LLM 提取结果
file_bench = 'data/benchmark_textbook.jsonl'     # 基准数据

# 对于教材/电子书
key_list = ['isbn', 'title', 'author', 'abstract', 'category', 'pub_time', 'publisher']

# 对于学术论文
# key_list = ['doi', 'title', 'author', 'keyword', 'abstract', 'pub_time']

# 运行评估,获取指标
accuracy, key_accuracy, detail_data = main(file_llm, file_bench, key_list)

# 输出结果到 Excel(可选)
write_similarity_data_to_excel(key_list, detail_data, "similarity_analysis.xlsx")

# 查看评估指标
print("各字段准确率:", key_accuracy)
print("总体准确率:", accuracy)

输出文件

脚本会生成一个 Excel 文件,包含详细的逐样本分析:

  • sha256:文件标识
  • 对于每个字段(如 title):
    • llm_title:LLM 提取的结果
    • benchmark_title:基准数据
    • similarity_title:相似度分数(0-1)

📈 统计信息

数据规模

第一批数据(20250806)

  • 电子书:70 条记录
  • 学术论文:70 条记录
  • 教材:71 条记录
  • 小计:211 条记录

第二批数据(20251022)

  • 电子书:354 条记录
  • 学术论文:399 条记录
  • 教材:46 条记录
  • 小计:799 条记录

总计:1010 条基准测试记录

数据涵盖多语言(英语、中文、德语、希腊语等)和多学科领域,两批数据共同提供了丰富多样的测试样本。

🎯 应用场景

  1. LLM 性能评估:评估大语言模型从 PDF 提取元数据的能力
  2. 信息提取系统测试:测试 OCR、文档解析等系统的准确性
  3. 模型微调:作为训练或微调数据,提升模型的信息提取能力
  4. 跨语言能力评估:评估模型处理多语言文献的能力

🔬 数据特点

  • 真实数据:从实际 PDF 文件中提取的真实元数据
  • 多样性:覆盖不同年代、语言、学科的文献
  • 挑战性:包含古籍、非英语文献、复杂排版等难例
  • 可追溯:每条记录包含 SHA256 哈希值和原始路径

📋 依赖项

pandas>=1.3.0
openpyxl>=3.0.0

安装依赖:

pip install pandas openpyxl

🤝 贡献指南

如果您希望:

  • 报告数据错误
  • 添加新的评估维度
  • 扩展数据集

请提交 Issue 或 Pull Request。

📧 联系方式

如有问题或建议,请通过 Issue 与我们联系。


最后更新:2025年12月26日