aleversn commited on
Commit
a152d97
·
verified ·
1 Parent(s): 119af0b

Upload Chinese.md

Browse files
Files changed (1) hide show
  1. docs/Chinese.md +160 -0
docs/Chinese.md ADDED
@@ -0,0 +1,160 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ <p align="center">
2
+ <img src="./docs/assets/logo.svg" alt="Logo" width="120" />
3
+ <p align="center">
4
+ <a href="https://github.com/PKU-DAIR">
5
+ <img alt="Static Badge" src="https://img.shields.io/badge/%C2%A9-PKU--DAIR-%230e529d?labelColor=%23003985">
6
+ </a>
7
+ </p>
8
+ </p>
9
+
10
+
11
+ ## **WebRenderBench: Enhancing Web Interface Generation through Layout-Style Consistency and Reinforcement Learning**
12
+
13
+ [Paper](https://arxiv.org/pdf/2510.04097)
14
+
15
+ ## **🔍 概述 (Overview)**
16
+
17
+ WebRenderBench 是一个全新的大规模基准测试,旨在通过对真实世界网页的评估,推动多模态大语言模型(MLLMs)在 WebUI-to-Code 任务上的发展。我们的基准测试提供:
18
+
19
+ * **45,100个** 从真实门户网站收集的网页样本
20
+ * **高多样性和复杂性**,涵盖广泛的行业和设计风格
21
+ * **全新的评估指标**,基于渲染后页面的**布局与样式一致性**
22
+ * **ALISA 强化学习框架**,利用新指标作为奖励信号,优化模型生成质量
23
+
24
+ ## **🚀 主要特性 (Key Features)**
25
+
26
+ ### **超越传统基准的局限性**
27
+
28
+ WebRenderBench 旨在解决现有 WebUI-to-Code 基准测试在数据质量和评估方法上的核心痛点:
29
+
30
+ | 方面 (Aspect) | 传统基准 (Traditional Benchmarks) | WebRenderBench 优势 (Advantage) |
31
+ | :---- | :---- | :---- |
32
+ | **数据质量 (Data Quality)** | 规模较小,结构简单,或由LLM合成,多样性有限 | 源自真实世界的大规模复杂网页,更具挑战性 |
33
+ | **评估可靠性 (Evaluation Reliability)** | 依赖视觉API(成本高)或代码结构对比(无法处理代码不对称问题) | 基于最终渲染结果进行客观、高效的布局与样式量化评估 |
34
+ | **训练有效性 (Training Effectiveness)** | 难以在代码不对称的爬取数据上进行有效优化 | 提出的评估指标可直接用作强化学习奖励,提升模型性能 |
35
+
36
+ ### **数据集特征 (Dataset Characteristics)**
37
+
38
+ <p align="center">
39
+ <img src="./docs/assets/framework.svg" alt="WebRenderBench an ALISA Framework" width="80%" />
40
+ </p>
41
+ <p align="center"><i>图1: 数据集构建流程与 ALISA 框架</i></p>
42
+ 我们的数据集通过一个系统化的流程构建,确保其高质量和多样性:
43
+
44
+ 1. **数据收集**: 从公开的企业门户网站数据集中获取URL,并使用高并发爬虫抓取了21万个网页及其静态资源。
45
+ 2. **数据处理**: 将 MHTML 页面转换为 HTML 文件,并处理跨域资源,确保页面可本地渲染并进行全页面截图。
46
+ 3. **数据清洗**: 过滤掉尺寸异常、渲染异常或样式缺失的页面。利用多模态模型进行QA,去除存在大面积空白或元素重叠的低质量样本,最终筛选出11万个页面。
47
+ 4. **数据分类**: 根据行业和元素复杂度(通过 Group Count 衡量)进行分类,确保数据集在复杂度和领域上分布均衡。
48
+
49
+ 最终,我们构建了包含 **45.1k** 样本的数据集,并平均划分为训练集和测试集。
50
+
51
+ ## **🌟 评估框架 (Evaluation Framework)**
52
+
53
+ 我们提出了一种新颖的、基于最终渲染页面的评估协议,从布局和样式两个核心维度进行量化评估。
54
+
55
+ ### **RDA (Relative Layout Difference of Associated Elements)**
56
+
57
+ **目的**: 评估关联元素的相对布局差异。
58
+
59
+ * **关联元素匹配**: 通过文本相似度(LCS)和位置/尺寸差异来匹配生成页面与目标页面中的对应元素。
60
+ * **位置偏差量化**: 将页面划分为九宫格,严格比较关联元素对所在的象限。若象限不同则得分为0,否则根据其相对偏移计算得分。
61
+ * **唯一性加权**: 根据元素的重复度(Race Group大小)为其分配权重,越独特的元素权重越高。
62
+
63
+ ### **GDA (Group-wise Difference in Element Counts)**
64
+
65
+ **目的**: 评估轴对齐元素的群组一致性。
66
+
67
+ * **元素分组**: 将在同一水平或垂直轴上对齐的元素视为一个群组。
68
+ * **数量一致性比较**: 比较生成页面与目标页面中对应群组的元素数量是否一致。
69
+ * **唯一性加权**: 同样采用元素的唯一性进行加权,以突出关键布局结构的对齐。
70
+
71
+ ### **SDA (Style Difference of Associated Elements)**
72
+
73
+ **目的**: 评估关联元素的细粒度样式差异。
74
+
75
+ * **多维度样式提取**: 评估前景颜色、背景颜色、字体大小和边框圆角等关键视觉属性。
76
+ * **加权平均**: 对每个关联元素对的各项样式得分进行加权平均,计算出最终的页面整体样式得分。
77
+
78
+ ## **⚙️ 安装指南 (Installation Guide)**
79
+
80
+ ### **核心依赖 (Core Dependencies)**
81
+
82
+ <!-- \# 推荐使用 vLLM 以获得更快的推理速度
83
+ pip install vllm transformers\>=4.40.0 torch\>=2.0
84
+
85
+ \# 其他通用依赖
86
+ pip install selenium pandas scikit-learn pillow
87
+
88
+ 或者通过需求文件安装:
89
+
90
+ pip install \-r requirements.txt -->
91
+
92
+ Coming Soon
93
+
94
+ ## **📊 基准测试流程 (Benchmark Workflow)**
95
+
96
+ ### **目录结构 (Directory Structure)**
97
+
98
+ |- docs/ \# 文档
99
+ |- scripts \# 评测脚本
100
+ |- web_render_test.jsonl \# 测试数据
101
+ |- web_render_train.jsonl \# 训练数据
102
+ |- test_webpages.zip \# 测试集网页数据
103
+ |- train_webpages.zip \# 训练集网页数据
104
+ |- test_screenshots.zip \# 测试集截图数据
105
+ |- train_screenshots.zip \# 训练集截图数据
106
+
107
+ ### **使用流程 (Implementation Steps)**
108
+
109
+ 1. **数据准备 (Data Preparation)**
110
+ * 从指定位置下载 WebRenderBench 数据集并将网页和截图分别解压。
111
+ * 数据集包含成对的网页截图和对应的真实网页代码(HTML及相关资源)。
112
+ 2. **模型推理 (VLM Inference)**
113
+ * 使用 vLLM/LLM Deploy 等引擎运行推理保存结果至指定目录。
114
+ 3. **结果评估 (Evaluation)**
115
+ * 运行 scripts/1_get_evalutation.py 脚本。
116
+ * 该脚本会启动一个 Web Server,用于渲染生成的 HTML 和目标 HTML。
117
+ * 通过 WebDriver 提取 DOM 信息,并计算 RDA, GDA, SDA 分数。
118
+ * 单例评估结果将保存在 save_results/ 目录中。
119
+ * 评估结果通过 scripts/2_compute_alisa_scores.py 计算
120
+ 4. **ALISA 框架训练 (Optional: ALISA Training)**
121
+ * 使用 models/train\_rl.py 脚本进行强化学习训练。 (Coming Soon)
122
+ * 评估脚本计算出的分数将作为奖励信号,通过 GRPO 等算法优化策略模型。
123
+
124
+ ## **📈 模型性能洞察 (Model Performance Insights)**
125
+
126
+ 我们对17个不同规模和架构的闭源及开源多模态大语言模型进行了评估。
127
+
128
+ * **RDA, GDA, and SDA 综合得分 (%)**
129
+
130
+ ![Inference Results](./docs/assets/inference_results.png)
131
+
132
+ * **关键发现**:
133
+ * 整体而言,模型规模越大,性能越好。GPT-4.1-mini 和 Qwen-VL-Plus 在闭源模型中表现最佳。
134
+ * 所有模型在处理简单页面(Group Count \< 50)时表现尚可,但随着页面复杂度增加,RDA(布局)得分急剧下降,表明精确布局对齐仍是巨大挑战。
135
+ * 通过 ALISA 框架训练后,Qwen2.5-VL-7B 在所有复杂度区间的性能均得到显著提升,甚至在简单页面上超越了 GPT-4.1-mini。
136
+
137
+ ## **📅 未来计划 (TO-DO)**
138
+
139
+ * \[ \] 发布经过 ALISA 框架微调的预训练模型。
140
+ * \[ \] 扩充数据集,涵盖更多行业垂直领域和更多动态交互场景。
141
+ * \[ \] 开源用于数据采集、清洗和评估的全套工具链。
142
+
143
+ ## **📜 许可证 (License)**
144
+
145
+ WebRenderBench 数据集遵循 仅供研究使用 的原则。代码部分将基于 Apache License 2.0 发布。
146
+
147
+ 数据集中的网页均来自公开可访问的企业门户网站。为保护隐私,所有个人及敏感信息已被移除或修改。
148
+
149
+ ## **📚 如何引用 (Citation)**
150
+
151
+ 如果您在研究中使用了我们的数据集或框架,请引用我们的论文:
152
+
153
+ ```bibtex
154
+ @article{webrenderbench2025,
155
+ title={WebRenderBench: Enhancing Web Interface Generation through Layout-Style Consistency and Reinforcement Learning},
156
+ author={Anonymous Author(s)},
157
+ year={2025},
158
+ journal={arXiv preprint},
159
+ }
160
+ ```