File size: 174,155 Bytes
1ee522c
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
doc	unit1_toks	unit2_toks	unit1_txt	unit2_txt	s1_toks	s2_toks	unit1_sent	unit2_sent	dir	orig_label	label
nlpabs100_Chi	1-30	99-120	随 着 科学 技术 的 发展 , 以 循 环 神经 网络 为 基础 的 机器 翻译 方法 由于 翻译 质量 更好 而 逐渐 取代 统计 机器 翻译 方法 ,	因此 该文 提出 一 种 基 于 卷积 神经 网络 CNN ( convolutional neural network ) 的 蒙汉 机器 翻译 方法 ,	1-61	62-168	随 着 科学 技术 的 发展 , 以 循 环 神经 网络 为 基础 的 机器 翻译 方法 由于 翻译 质量 更好 而 逐渐 取代 统计 机器 翻译 方法 , 特别 是 在 国际 大 语种 之间 的 互译 方面 , RNN 在 对 语料 编码 时 能够 提取 更好 的 特征 , 这 对 翻译 质量 好坏 至关 重要 。	然而 在 蒙古 语 这 类 小 语种 的 翻译 方面 , 由于 语料 不足 导致 的 数据 稀疏 和 RNN 模型 训练 梯度 消失 等 问题 , 很难 从 语料 中 充分 获取 语义 关系 , 因此 该文 提出 一 种 基 于 卷积 神经 网络 CNN ( convolutional neural network ) 的 蒙汉 机器 翻译 方法 , 在 对 源 语料 编码 时 利用 池化 层 获取 语义 关系 , 并 根据 蒙古 语构词 特点 得到 句子 的 语义 信息 , 再 通过 融合 全局 注意 力 机制 的 GRU 循环 神经 网络 将 编码 过 后 的 源 语言 解码 为 汉 语 。	1>2	bg-general	bg-general
nlpabs100_Chi	1-30	31-53	随 着 科学 技术 的 发展 , 以 循 环 神经 网络 为 基础 的 机器 翻译 方法 由于 翻译 质量 更好 而 逐渐 取代 统计 机器 翻译 方法 ,	特别 是 在 国际 大 语种 之间 的 互译 方面 , RNN 在 对 语料 编码 时 能够 提取 更好 的 特征 ,	1-61	1-61	随 着 科学 技术 的 发展 , 以 循 环 神经 网络 为 基础 的 机器 翻译 方法 由于 翻译 质量 更好 而 逐渐 取代 统计 机器 翻译 方法 , 特别 是 在 国际 大 语种 之间 的 互译 方面 , RNN 在 对 语料 编码 时 能够 提取 更好 的 特征 , 这 对 翻译 质量 好坏 至关 重要 。	随 着 科学 技术 的 发展 , 以 循 环 神经 网络 为 基础 的 机器 翻译 方法 由于 翻译 质量 更好 而 逐渐 取代 统计 机器 翻译 方法 , 特别 是 在 国际 大 语种 之间 的 互译 方面 , RNN 在 对 语料 编码 时 能够 提取 更好 的 特征 , 这 对 翻译 质量 好坏 至关 重要 。	1<2	elab-addition	elab-addition
nlpabs100_Chi	31-53	54-61	特别 是 在 国际 大 语种 之间 的 互译 方面 , RNN 在 对 语料 编码 时 能够 提取 更好 的 特征 ,	这 对 翻译 质量 好坏 至关 重要 。	1-61	1-61	随 着 科学 技术 的 发展 , 以 循 环 神经 网络 为 基础 的 机器 翻译 方法 由于 翻译 质量 更好 而 逐渐 取代 统计 机器 翻译 方法 , 特别 是 在 国际 大 语种 之间 的 互译 方面 , RNN 在 对 语料 编码 时 能够 提取 更好 的 特征 , 这 对 翻译 质量 好坏 至关 重要 。	随 着 科学 技术 的 发展 , 以 循 环 神经 网络 为 基础 的 机器 翻译 方法 由于 翻译 质量 更好 而 逐渐 取代 统计 机器 翻译 方法 , 特别 是 在 国际 大 语种 之间 的 互译 方面 , RNN 在 对 语料 编码 时 能够 提取 更好 的 特征 , 这 对 翻译 质量 好坏 至关 重要 。	1<2	elab-addition	elab-addition
nlpabs100_Chi	54-61	62-98	这 对 翻译 质量 好坏 至关 重要 。	然而 在 蒙古 语 这 类 小 语种 的 翻译 方面 , 由于 语料 不足 导致 的 数据 稀疏 和 RNN 模型 训练 梯度 消失 等 问题 , 很难 从 语料 中 充分 获取 语义 关系 ,	1-61	62-168	随 着 科学 技术 的 发展 , 以 循 环 神经 网络 为 基础 的 机器 翻译 方法 由于 翻译 质量 更好 而 逐渐 取代 统计 机器 翻译 方法 , 特别 是 在 国际 大 语种 之间 的 互译 方面 , RNN 在 对 语料 编码 时 能够 提取 更好 的 特征 , 这 对 翻译 质量 好坏 至关 重要 。	然而 在 蒙古 语 这 类 小 语种 的 翻译 方面 , 由于 语料 不足 导致 的 数据 稀疏 和 RNN 模型 训练 梯度 消失 等 问题 , 很难 从 语料 中 充分 获取 语义 关系 , 因此 该文 提出 一 种 基 于 卷积 神经 网络 CNN ( convolutional neural network ) 的 蒙汉 机器 翻译 方法 , 在 对 源 语料 编码 时 利用 池化 层 获取 语义 关系 , 并 根据 蒙古 语构词 特点 得到 句子 的 语义 信息 , 再 通过 融合 全局 注意 力 机制 的 GRU 循环 神经 网络 将 编码 过 后 的 源 语言 解码 为 汉 语 。	1<2	contrast	contrast
nlpabs100_Chi	99-120	121-168	因此 该文 提出 一 种 基 于 卷积 神经 网络 CNN ( convolutional neural network ) 的 蒙汉 机器 翻译 方法 ,	在 对 源 语料 编码 时 利用 池化 层 获取 语义 关系 , 并 根据 蒙古 语构词 特点 得到 句子 的 语义 信息 , 再 通过 融合 全局 注意 力 机制 的 GRU 循环 神经 网络 将 编码 过 后 的 源 语言 解码 为 汉 语 。	62-168	62-168	然而 在 蒙古 语 这 类 小 语种 的 翻译 方面 , 由于 语料 不足 导致 的 数据 稀疏 和 RNN 模型 训练 梯度 消失 等 问题 , 很难 从 语料 中 充分 获取 语义 关系 , 因此 该文 提出 一 种 基 于 卷积 神经 网络 CNN ( convolutional neural network ) 的 蒙汉 机器 翻译 方法 , 在 对 源 语料 编码 时 利用 池化 层 获取 语义 关系 , 并 根据 蒙古 语构词 特点 得到 句子 的 语义 信息 , 再 通过 融合 全局 注意 力 机制 的 GRU 循环 神经 网络 将 编码 过 后 的 源 语言 解码 为 汉 语 。	然而 在 蒙古 语 这 类 小 语种 的 翻译 方面 , 由于 语料 不足 导致 的 数据 稀疏 和 RNN 模型 训练 梯度 消失 等 问题 , 很难 从 语料 中 充分 获取 语义 关系 , 因此 该文 提出 一 种 基 于 卷积 神经 网络 CNN ( convolutional neural network ) 的 蒙汉 机器 翻译 方法 , 在 对 源 语料 编码 时 利用 池化 层 获取 语义 关系 , 并 根据 蒙古 语构词 特点 得到 句子 的 语义 信息 , 再 通过 融合 全局 注意 力 机制 的 GRU 循环 神经 网络 将 编码 过 后 的 源 语言 解码 为 汉 语 。	1<2	elab-addition	elab-addition
nlpabs100_Chi	169-172	173-192	实验 结果 表明 ,	该 方法 在 翻译 准确 率 和 训练 速度 两 方面 均 优 于 RNN 基准 机器 翻译 方法 。	169-192	169-192	实验 结果 表明 , 该 方法 在 翻译 准确 率 和 训练 速度 两 方面 均 优 于 RNN 基准 机器 翻译 方法 。	实验 结果 表明 , 该 方法 在 翻译 准确 率 和 训练 速度 两 方面 均 优 于 RNN 基准 机器 翻译 方法 。	1>2	attribution	attribution
nlpabs100_Chi	99-120	173-192	因此 该文 提出 一 种 基 于 卷积 神经 网络 CNN ( convolutional neural network ) 的 蒙汉 机器 翻译 方法 ,	该 方法 在 翻译 准确 率 和 训练 速度 两 方面 均 优 于 RNN 基准 机器 翻译 方法 。	62-168	169-192	然而 在 蒙古 语 这 类 小 语种 的 翻译 方面 , 由于 语料 不足 导致 的 数据 稀疏 和 RNN 模型 训练 梯度 消失 等 问题 , 很难 从 语料 中 充分 获取 语义 关系 , 因此 该文 提出 一 种 基 于 卷积 神经 网络 CNN ( convolutional neural network ) 的 蒙汉 机器 翻译 方法 , 在 对 源 语料 编码 时 利用 池化 层 获取 语义 关系 , 并 根据 蒙古 语构词 特点 得到 句子 的 语义 信息 , 再 通过 融合 全局 注意 力 机制 的 GRU 循环 神经 网络 将 编码 过 后 的 源 语言 解码 为 汉 语 。	实验 结果 表明 , 该 方法 在 翻译 准确 率 和 训练 速度 两 方面 均 优 于 RNN 基准 机器 翻译 方法 。	1<2	evaluation	evaluation
nlpabs101_Chi	1-19	20-25	探索 将 循环 神经 网络 和 连接 时序 分类 算法 应用 于 藏 语 语音 识别 声学 建模 ,	实现 端到端 的 模型 训练 。	1-25	1-25	探索 将 循环 神经 网络 和 连接 时序 分类 算法 应用 于 藏 语 语音 识别 声学 建模 , 实现 端到端 的 模型 训练 。	探索 将 循环 神经 网络 和 连接 时序 分类 算法 应用 于 藏 语 语音 识别 声学 建模 , 实现 端到端 的 模型 训练 。	1<2	enablement	enablement
nlpabs101_Chi	26-35	36-57	同时 根据 声学 模型 输入 与 输出 的 关系 ,	通过 在 隐含 层 输出 序列 上 引入 时域 卷积 操作 来 对 网络 隐含 层 时域 展开 步数 进行 约简 ,	26-67	26-67	同时 根据 声学 模型 输入 与 输出 的 关系 , 通过 在 隐含 层 输出 序列 上 引入 时域 卷积 操作 来 对 网络 隐含 层 时域 展开 步数 进行 约简 , 从而 有效 提升 模型 的 训练 与 解码 效率 。	同时 根据 声学 模型 输入 与 输出 的 关系 , 通过 在 隐含 层 输出 序列 上 引入 时域 卷积 操作 来 对 网络 隐含 层 时域 展开 步数 进行 约简 , 从而 有效 提升 模型 的 训练 与 解码 效率 。	1>2	bg-general	bg-general
nlpabs101_Chi	1-19	36-57	探索 将 循环 神经 网络 和 连接 时序 分类 算法 应用 于 藏 语 语音 识别 声学 建模 ,	通过 在 隐含 层 输出 序列 上 引入 时域 卷积 操作 来 对 网络 隐含 层 时域 展开 步数 进行 约简 ,	1-25	26-67	探索 将 循环 神经 网络 和 连接 时序 分类 算法 应用 于 藏 语 语音 识别 声学 建模 , 实现 端到端 的 模型 训练 。	同时 根据 声学 模型 输入 与 输出 的 关系 , 通过 在 隐含 层 输出 序列 上 引入 时域 卷积 操作 来 对 网络 隐含 层 时域 展开 步数 进行 约简 , 从而 有效 提升 模型 的 训练 与 解码 效率 。	1<2	elab-addition	elab-addition
nlpabs101_Chi	36-57	58-67	通过 在 隐含 层 输出 序列 上 引入 时域 卷积 操作 来 对 网络 隐含 层 时域 展开 步数 进行 约简 ,	从而 有效 提升 模型 的 训练 与 解码 效率 。	26-67	26-67	同时 根据 声学 模型 输入 与 输出 的 关系 , 通过 在 隐含 层 输出 序列 上 引入 时域 卷积 操作 来 对 网络 隐含 层 时域 展开 步数 进行 约简 , 从而 有效 提升 模型 的 训练 与 解码 效率 。	同时 根据 声学 模型 输入 与 输出 的 关系 , 通过 在 隐含 层 输出 序列 上 引入 时域 卷积 操作 来 对 网络 隐含 层 时域 展开 步数 进行 约简 , 从而 有效 提升 模型 的 训练 与 解码 效率 。	1<2	enablement	enablement
nlpabs101_Chi	68-71	84-101	实验 结果 显示 ,	循环 神经 网络 模型 在 藏 语 拉萨 话音素 识别 任务 上 具有 更好 的 识别 性能 ,	68-129	68-129	实验 结果 显示 , 与 传统 基 于 隐马尔可夫 模型 的 声学 建模 方法 相比 , 循环 神经 网络 模型 在 藏 语 拉萨 话音素 识别 任务 上 具有 更好 的 识别 性能 , 而 引入 时域 卷积 操作 的 循环 神经 网络 声学 模型 在 保持 同等 识别 性能 的 情况 下 , 拥有 更高 的 训练 和 解码 效率 。	实验 结果 显示 , 与 传统 基 于 隐马尔可夫 模型 的 声学 建模 方法 相比 , 循环 神经 网络 模型 在 藏 语 拉萨 话音素 识别 任务 上 具有 更好 的 识别 性能 , 而 引入 时域 卷积 操作 的 循环 神经 网络 声学 模型 在 保持 同等 识别 性能 的 情况 下 , 拥有 更高 的 训练 和 解码 效率 。	1>2	attribution	attribution
nlpabs101_Chi	72-83	84-101	与 传统 基 于 隐马尔可夫 模型 的 声学 建模 方法 相比 ,	循环 神经 网络 模型 在 藏 语 拉萨 话音素 识别 任务 上 具有 更好 的 识别 性能 ,	68-129	68-129	实验 结果 显示 , 与 传统 基 于 隐马尔可夫 模型 的 声学 建模 方法 相比 , 循环 神经 网络 模型 在 藏 语 拉萨 话音素 识别 任务 上 具有 更好 的 识别 性能 , 而 引入 时域 卷积 操作 的 循环 神经 网络 声学 模型 在 保持 同等 识别 性能 的 情况 下 , 拥有 更高 的 训练 和 解码 效率 。	实验 结果 显示 , 与 传统 基 于 隐马尔可夫 模型 的 声学 建模 方法 相比 , 循环 神经 网络 模型 在 藏 语 拉萨 话音素 识别 任务 上 具有 更好 的 识别 性能 , 而 引入 时域 卷积 操作 的 循环 神经 网络 声学 模型 在 保持 同等 识别 性能 的 情况 下 , 拥有 更高 的 训练 和 解码 效率 。	1>2	comparison	comparison
nlpabs101_Chi	1-19	84-101	探索 将 循环 神经 网络 和 连接 时序 分类 算法 应用 于 藏 语 语音 识别 声学 建模 ,	循环 神经 网络 模型 在 藏 语 拉萨 话音素 识别 任务 上 具有 更好 的 识别 性能 ,	1-25	68-129	探索 将 循环 神经 网络 和 连接 时序 分类 算法 应用 于 藏 语 语音 识别 声学 建模 , 实现 端到端 的 模型 训练 。	实验 结果 显示 , 与 传统 基 于 隐马尔可夫 模型 的 声学 建模 方法 相比 , 循环 神经 网络 模型 在 藏 语 拉萨 话音素 识别 任务 上 具有 更好 的 识别 性能 , 而 引入 时域 卷积 操作 的 循环 神经 网络 声学 模型 在 保持 同等 识别 性能 的 情况 下 , 拥有 更高 的 训练 和 解码 效率 。	1<2	evaluation	evaluation
nlpabs101_Chi	84-101	102-129	循环 神经 网络 模型 在 藏 语 拉萨 话音素 识别 任务 上 具有 更好 的 识别 性能 ,	而 引入 时域 卷积 操作 的 循环 神经 网络 声学 模型 在 保持 同等 识别 性能 的 情况 下 , 拥有 更高 的 训练 和 解码 效率 。	68-129	68-129	实验 结果 显示 , 与 传统 基 于 隐马尔可夫 模型 的 声学 建模 方法 相比 , 循环 神经 网络 模型 在 藏 语 拉萨 话音素 识别 任务 上 具有 更好 的 识别 性能 , 而 引入 时域 卷积 操作 的 循环 神经 网络 声学 模型 在 保持 同等 识别 性能 的 情况 下 , 拥有 更高 的 训练 和 解码 效率 。	实验 结果 显示 , 与 传统 基 于 隐马尔可夫 模型 的 声学 建模 方法 相比 , 循环 神经 网络 模型 在 藏 语 拉萨 话音素 识别 任务 上 具有 更好 的 识别 性能 , 而 引入 时域 卷积 操作 的 循环 神经 网络 声学 模型 在 保持 同等 识别 性能 的 情况 下 , 拥有 更高 的 训练 和 解码 效率 。	1<2	joint	joint
nlpabs103_Chi	1-18	28-45	维吾尔 语 事件 伴随 关系 是 维吾尔 语 语言 中 常见 且 重要 的 关系 之 一 。	该文 提出 一 种 基 于 深度 信念 网络 的 维吾尔 语 事件 伴随 关系 识别 方法 ,	1-18	19-99	维吾尔 语 事件 伴随 关系 是 维吾尔 语 语言 中 常见 且 重要 的 关系 之 一 。	结合 对 维吾尔 语 语言 特点 的 研究 , 该文 提出 一 种 基 于 深度 信念 网络 的 维吾尔 语 事件 伴随 关系 识别 方法 , 根据 维吾尔 语 语言 特性 和 事件 伴随 关系 的 特点 , 抽取 12 项 基 于 事件 结构 信息 的 特征 ; 同时 充分 利用 事件 对 所 对应 的 两 个 触发 词 之间 的 语义 信息 , 引入 Word Embedding 计算 两 个 触发 词 之间 的 语义 相似 度 。	1>2	bg-general	bg-general
nlpabs103_Chi	19-27	28-45	结合 对 维吾尔 语 语言 特点 的 研究 ,	该文 提出 一 种 基 于 深度 信念 网络 的 维吾尔 语 事件 伴随 关系 识别 方法 ,	19-99	19-99	结合 对 维吾尔 语 语言 特点 的 研究 , 该文 提出 一 种 基 于 深度 信念 网络 的 维吾尔 语 事件 伴随 关系 识别 方法 , 根据 维吾尔 语 语言 特性 和 事件 伴随 关系 的 特点 , 抽取 12 项 基 于 事件 结构 信息 的 特征 ; 同时 充分 利用 事件 对 所 对应 的 两 个 触发 词 之间 的 语义 信息 , 引入 Word Embedding 计算 两 个 触发 词 之间 的 语义 相似 度 。	结合 对 维吾尔 语 语言 特点 的 研究 , 该文 提出 一 种 基 于 深度 信念 网络 的 维吾尔 语 事件 伴随 关系 识别 方法 , 根据 维吾尔 语 语言 特性 和 事件 伴随 关系 的 特点 , 抽取 12 项 基 于 事件 结构 信息 的 特征 ; 同时 充分 利用 事件 对 所 对应 的 两 个 触发 词 之间 的 语义 信息 , 引入 Word Embedding 计算 两 个 触发 词 之间 的 语义 相似 度 。	1>2	bg-general	bg-general
nlpabs103_Chi	46-57	58-68	根据 维吾尔 语 语言 特性 和 事件 伴随 关系 的 特点 ,	抽取 12 项 基 于 事件 结构 信息 的 特征 ;	19-99	19-99	结合 对 维吾尔 语 语言 特点 的 研究 , 该文 提出 一 种 基 于 深度 信念 网络 的 维吾尔 语 事件 伴随 关系 识别 方法 , 根据 维吾尔 语 语言 特性 和 事件 伴随 关系 的 特点 , 抽取 12 项 基 于 事件 结构 信息 的 特征 ; 同时 充分 利用 事件 对 所 对应 的 两 个 触发 词 之间 的 语义 信息 , 引入 Word Embedding 计算 两 个 触发 词 之间 的 语义 相似 度 。	结合 对 维吾尔 语 语言 特点 的 研究 , 该文 提出 一 种 基 于 深度 信念 网络 的 维吾尔 语 事件 伴随 关系 识别 方法 , 根据 维吾尔 语 语言 特性 和 事件 伴随 关系 的 特点 , 抽取 12 项 基 于 事件 结构 信息 的 特征 ; 同时 充分 利用 事件 对 所 对应 的 两 个 触发 词 之间 的 语义 信息 , 引入 Word Embedding 计算 两 个 触发 词 之间 的 语义 相似 度 。	1>2	bg-general	bg-general
nlpabs103_Chi	28-45	58-68	该文 提出 一 种 基 于 深度 信念 网络 的 维吾尔 语 事件 伴随 关系 识别 方法 ,	抽取 12 项 基 于 事件 结构 信息 的 特征 ;	19-99	19-99	结合 对 维吾尔 语 语言 特点 的 研究 , 该文 提出 一 种 基 于 深度 信念 网络 的 维吾尔 语 事件 伴随 关系 识别 方法 , 根据 维吾尔 语 语言 特性 和 事件 伴随 关系 的 特点 , 抽取 12 项 基 于 事件 结构 信息 的 特征 ; 同时 充分 利用 事件 对 所 对应 的 两 个 触发 词 之间 的 语义 信息 , 引入 Word Embedding 计算 两 个 触发 词 之间 的 语义 相似 度 。	结合 对 维吾尔 语 语言 特点 的 研究 , 该文 提出 一 种 基 于 深度 信念 网络 的 维吾尔 语 事件 伴随 关系 识别 方法 , 根据 维吾尔 语 语言 特性 和 事件 伴随 关系 的 特点 , 抽取 12 项 基 于 事件 结构 信息 的 特征 ; 同时 充分 利用 事件 对 所 对应 的 两 个 触发 词 之间 的 语义 信息 , 引入 Word Embedding 计算 两 个 触发 词 之间 的 语义 相似 度 。	1<2	elab-process_step	elab-process_step
nlpabs103_Chi	58-68	69-85	抽取 12 项 基 于 事件 结构 信息 的 特征 ;	同时 充分 利用 事件 对 所 对应 的 两 个 触发 词 之间 的 语义 信息 ,	19-99	19-99	结合 对 维吾尔 语 语言 特点 的 研究 , 该文 提出 一 种 基 于 深度 信念 网络 的 维吾尔 语 事件 伴随 关系 识别 方法 , 根据 维吾尔 语 语言 特性 和 事件 伴随 关系 的 特点 , 抽取 12 项 基 于 事件 结构 信息 的 特征 ; 同时 充分 利用 事件 对 所 对应 的 两 个 触发 词 之间 的 语义 信息 , 引入 Word Embedding 计算 两 个 触发 词 之间 的 语义 相似 度 。	结合 对 维吾尔 语 语言 特点 的 研究 , 该文 提出 一 种 基 于 深度 信念 网络 的 维吾尔 语 事件 伴随 关系 识别 方法 , 根据 维吾尔 语 语言 特性 和 事件 伴随 关系 的 特点 , 抽取 12 项 基 于 事件 结构 信息 的 特征 ; 同时 充分 利用 事件 对 所 对应 的 两 个 触发 词 之间 的 语义 信息 , 引入 Word Embedding 计算 两 个 触发 词 之间 的 语义 相似 度 。	1<2	joint	joint
nlpabs103_Chi	69-85	86-99	同时 充分 利用 事件 对 所 对应 的 两 个 触发 词 之间 的 语义 信息 ,	引入 Word Embedding 计算 两 个 触发 词 之间 的 语义 相似 度 。	19-99	19-99	结合 对 维吾尔 语 语言 特点 的 研究 , 该文 提出 一 种 基 于 深度 信念 网络 的 维吾尔 语 事件 伴随 关系 识别 方法 , 根据 维吾尔 语 语言 特性 和 事件 伴随 关系 的 特点 , 抽取 12 项 基 于 事件 结构 信息 的 特征 ; 同时 充分 利用 事件 对 所 对应 的 两 个 触发 词 之间 的 语义 信息 , 引入 Word Embedding 计算 两 个 触发 词 之间 的 语义 相似 度 。	结合 对 维吾尔 语 语言 特点 的 研究 , 该文 提出 一 种 基 于 深度 信念 网络 的 维吾尔 语 事件 伴随 关系 识别 方法 , 根据 维吾尔 语 语言 特性 和 事件 伴随 关系 的 特点 , 抽取 12 项 基 于 事件 结构 信息 的 特征 ; 同时 充分 利用 事件 对 所 对应 的 两 个 触发 词 之间 的 语义 信息 , 引入 Word Embedding 计算 两 个 触发 词 之间 的 语义 相似 度 。	1<2	enablement	enablement
nlpabs103_Chi	58-68	100-114	抽取 12 项 基 于 事件 结构 信息 的 特征 ;	而 后 融合 两 类 特征 作 为 DBN 模型 的 输入 进行 训练 ,	19-99	100-133	结合 对 维吾尔 语 语言 特点 的 研究 , 该文 提出 一 种 基 于 深度 信念 网络 的 维吾尔 语 事件 伴随 关系 识别 方法 , 根据 维吾尔 语 语言 特性 和 事件 伴随 关系 的 特点 , 抽取 12 项 基 于 事件 结构 信息 的 特征 ; 同时 充分 利用 事件 对 所 对应 的 两 个 触发 词 之间 的 语义 信息 , 引入 Word Embedding 计算 两 个 触发 词 之间 的 语义 相似 度 。	而 后 融合 两 类 特征 作 为 DBN 模型 的 输入 进行 训练 , 最后 将 训练 结果 作 为 softmax 分类器 的 输入 实现 维吾尔 语 事件 伴随 关系 的 识别 。	1<2	joint	joint
nlpabs103_Chi	100-114	115-133	而 后 融合 两 类 特征 作 为 DBN 模型 的 输入 进行 训练 ,	最后 将 训练 结果 作 为 softmax 分类器 的 输入 实现 维吾尔 语 事件 伴随 关系 的 识别 。	100-133	100-133	而 后 融合 两 类 特征 作 为 DBN 模型 的 输入 进行 训练 , 最后 将 训练 结果 作 为 softmax 分类器 的 输入 实现 维吾尔 语 事件 伴随 关系 的 识别 。	而 后 融合 两 类 特征 作 为 DBN 模型 的 输入 进行 训练 , 最后 将 训练 结果 作 为 softmax 分类器 的 输入 实现 维吾尔 语 事件 伴随 关系 的 识别 。	1<2	joint	joint
nlpabs103_Chi	28-45	134-161	该文 提出 一 种 基 于 深度 信念 网络 的 维吾尔 语 事件 伴随 关系 识别 方法 ,	该 方法 用 于 维吾尔 语 事件 伴随 关系 的 识别 准确 率 P 为 81.89% 、 召回 率 R 为 84.32% 、 F1 值 为 82.48% 。	19-99	134-161	结合 对 维吾尔 语 语言 特点 的 研究 , 该文 提出 一 种 基 于 深度 信念 网络 的 维吾尔 语 事件 伴随 关系 识别 方法 , 根据 维吾尔 语 语言 特性 和 事件 伴随 关系 的 特点 , 抽取 12 项 基 于 事件 结构 信息 的 特征 ; 同时 充分 利用 事件 对 所 对应 的 两 个 触发 词 之间 的 语义 信息 , 引入 Word Embedding 计算 两 个 触发 词 之间 的 语义 相似 度 。	该 方法 用 于 维吾尔 语 事件 伴随 关系 的 识别 准确 率 P 为 81.89% 、 召回 率 R 为 84.32% 、 F1 值 为 82.48% 。	1<2	evaluation	evaluation
nlpabs103_Chi	162-165	173-185	实验 结果 表明 ,	基 于 DBN 模型 的 方法 取 得 更好 的 识别 效果 。	162-185	162-185	实验 结果 表明 , 与 支持 向量 机 方法 相比 , 基 于 DBN 模型 的 方法 取 得 更好 的 识别 效果 。	实验 结果 表明 , 与 支持 向量 机 方法 相比 , 基 于 DBN 模型 的 方法 取 得 更好 的 识别 效果 。	1>2	elab-addition	elab-addition
nlpabs103_Chi	166-172	173-185	与 支持 向量 机 方法 相比 ,	基 于 DBN 模型 的 方法 取 得 更好 的 识别 效果 。	162-185	162-185	实验 结果 表明 , 与 支持 向量 机 方法 相比 , 基 于 DBN 模型 的 方法 取 得 更好 的 识别 效果 。	实验 结果 表明 , 与 支持 向量 机 方法 相比 , 基 于 DBN 模型 的 方法 取 得 更好 的 识别 效果 。	1>2	contrast	contrast
nlpabs103_Chi	134-161	173-185	该 方法 用 于 维吾尔 语 事件 伴随 关系 的 识别 准确 率 P 为 81.89% 、 召回 率 R 为 84.32% 、 F1 值 为 82.48% 。	基 于 DBN 模型 的 方法 取 得 更好 的 识别 效果 。	134-161	162-185	该 方法 用 于 维吾尔 语 事件 伴随 关系 的 识别 准确 率 P 为 81.89% 、 召回 率 R 为 84.32% 、 F1 值 为 82.48% 。	实验 结果 表明 , 与 支持 向量 机 方法 相比 , 基 于 DBN 模型 的 方法 取 得 更好 的 识别 效果 。	1<2	elab-addition	elab-addition
nlpabs104_Chi	1-16	49-65	网络 化 大 数据 时代 的 到来 丰富 了 网络 空间 中 的 信息 资源 ,	该文 提出 了 一 种 基 于 潜 在 语义 分析 的 文本 指纹 提取 方法 ,	1-48	49-90	网络 化 大 数据 时代 的 到来 丰富 了 网络 空间 中 的 信息 资源 , 然而 由于 数据 资源 类型 的 多样 性 及 其 增长 的 快速 性 , 给 网络 空间 的 存储 和 信息 资源 的 有效 利用 带来 了 压力 和 挑战 。	该文 提出 了 一 种 基 于 潜 在 语义 分析 的 文本 指纹 提取 方法 , 该 方法 是 对 数据 信息 的 一 种 压缩 表示 , 是 针对 目前 指纹 提取 方法 语义 缺失 的 一 种 改进 。	1>2	bg-general	bg-general
nlpabs104_Chi	1-16	17-48	网络 化 大 数据 时代 的 到来 丰富 了 网络 空间 中 的 信息 资源 ,	然而 由于 数据 资源 类型 的 多样 性 及 其 增长 的 快速 性 , 给 网络 空间 的 存储 和 信息 资源 的 有效 利用 带来 了 压力 和 挑战 。	1-48	1-48	网络 化 大 数据 时代 的 到来 丰富 了 网络 空间 中 的 信息 资源 , 然而 由于 数据 资源 类型 的 多样 性 及 其 增长 的 快速 性 , 给 网络 空间 的 存储 和 信息 资源 的 有效 利用 带来 了 压力 和 挑战 。	网络 化 大 数据 时代 的 到来 丰富 了 网络 空间 中 的 信息 资源 , 然而 由于 数据 资源 类型 的 多样 性 及 其 增长 的 快速 性 , 给 网络 空间 的 存储 和 信息 资源 的 有效 利用 带来 了 压力 和 挑战 。	1<2	contrast	contrast
nlpabs104_Chi	49-65	66-77	该文 提出 了 一 种 基 于 潜 在 语义 分析 的 文本 指纹 提取 方法 ,	该 方法 是 对 数据 信息 的 一 种 压缩 表示 ,	49-90	49-90	该文 提出 了 一 种 基 于 潜 在 语义 分析 的 文本 指纹 提取 方法 , 该 方法 是 对 数据 信息 的 一 种 压缩 表示 , 是 针对 目前 指纹 提取 方法 语义 缺失 的 一 种 改进 。	该文 提出 了 一 种 基 于 潜 在 语义 分析 的 文本 指纹 提取 方法 , 该 方法 是 对 数据 信息 的 一 种 压缩 表示 , 是 针对 目前 指纹 提取 方法 语义 缺失 的 一 种 改进 。	1<2	elab-addition	elab-addition
nlpabs104_Chi	66-77	78-90	该 方法 是 对 数据 信息 的 一 种 压缩 表示 ,	是 针对 目前 指纹 提取 方法 语义 缺失 的 一 种 改进 。	49-90	49-90	该文 提出 了 一 种 基 于 潜 在 语义 分析 的 文本 指纹 提取 方法 , 该 方法 是 对 数据 信息 的 一 种 压缩 表示 , 是 针对 目前 指纹 提取 方法 语义 缺失 的 一 种 改进 。	该文 提出 了 一 种 基 于 潜 在 语义 分析 的 文本 指纹 提取 方法 , 该 方法 是 对 数据 信息 的 一 种 压缩 表示 , 是 针对 目前 指纹 提取 方法 语义 缺失 的 一 种 改进 。	1<2	elab-addition	elab-addition
nlpabs104_Chi	49-65	91-105	该文 提出 了 一 种 基 于 潜 在 语义 分析 的 文本 指纹 提取 方法 ,	该 方法 主要 通过 奇异 值 分解 获取 原始 文档 的 潜在 语义 特征 ,	49-90	91-152	该文 提出 了 一 种 基 于 潜 在 语义 分析 的 文本 指纹 提取 方法 , 该 方法 是 对 数据 信息 的 一 种 压缩 表示 , 是 针对 目前 指纹 提取 方法 语义 缺失 的 一 种 改进 。	该 方法 主要 通过 奇异 值 分解 获取 原始 文档 的 潜在 语义 特征 , 然后 将 原 文档 向量 空间 转换 到 与 其 对应 的 潜在 语义 空间 , 再 根据 随机 超 平面 原理 将 该 空间 的 文档 转换 成 二 进制 数字 指纹 , 最终 用 汉 明 距离 来 衡量 指纹 间 的 差异 程度 。	1<2	elab-process_step	elab-process_step
nlpabs104_Chi	91-105	106-121	该 方法 主要 通过 奇异 值 分解 获取 原始 文档 的 潜在 语义 特征 ,	然后 将 原 文档 向量 空间 转换 到 与 其 对应 的 潜在 语义 空间 ,	91-152	91-152	该 方法 主要 通过 奇异 值 分解 获取 原始 文档 的 潜在 语义 特征 , 然后 将 原 文档 向量 空间 转换 到 与 其 对应 的 潜在 语义 空间 , 再 根据 随机 超 平面 原理 将 该 空间 的 文档 转换 成 二 进制 数字 指纹 , 最终 用 汉 明 距离 来 衡量 指纹 间 的 差异 程度 。	该 方法 主要 通过 奇异 值 分解 获取 原始 文档 的 潜在 语义 特征 , 然后 将 原 文档 向量 空间 转换 到 与 其 对应 的 潜在 语义 空间 , 再 根据 随机 超 平面 原理 将 该 空间 的 文档 转换 成 二 进制 数字 指纹 , 最终 用 汉 明 距离 来 衡量 指纹 间 的 差异 程度 。	1<2	joint	joint
nlpabs104_Chi	106-121	122-127	然后 将 原 文档 向量 空间 转换 到 与 其 对应 的 潜在 语义 空间 ,	再 根据 随机 超 平面 原理	91-152	91-152	该 方法 主要 通过 奇异 值 分解 获取 原始 文档 的 潜在 语义 特征 , 然后 将 原 文档 向量 空间 转换 到 与 其 对应 的 潜在 语义 空间 , 再 根据 随机 超 平面 原理 将 该 空间 的 文档 转换 成 二 进制 数字 指纹 , 最终 用 汉 明 距离 来 衡量 指纹 间 的 差异 程度 。	该 方法 主要 通过 奇异 值 分解 获取 原始 文档 的 潜在 语义 特征 , 然后 将 原 文档 向量 空间 转换 到 与 其 对应 的 潜在 语义 空间 , 再 根据 随机 超 平面 原理 将 该 空间 的 文档 转换 成 二 进制 数字 指纹 , 最终 用 汉 明 距离 来 衡量 指纹 间 的 差异 程度 。	1<2	joint	joint
nlpabs104_Chi	122-127	128-139	再 根据 随机 超 平面 原理	将 该 空间 的 文档 转换 成 二 进制 数字 指纹 ,	91-152	91-152	该 方法 主要 通过 奇异 值 分解 获取 原始 文档 的 潜在 语义 特征 , 然后 将 原 文档 向量 空间 转换 到 与 其 对应 的 潜在 语义 空间 , 再 根据 随机 超 平面 原理 将 该 空间 的 文档 转换 成 二 进制 数字 指纹 , 最终 用 汉 明 距离 来 衡量 指纹 间 的 差异 程度 。	该 方法 主要 通过 奇异 值 分解 获取 原始 文档 的 潜在 语义 特征 , 然后 将 原 文档 向量 空间 转换 到 与 其 对应 的 潜在 语义 空间 , 再 根据 随机 超 平面 原理 将 该 空间 的 文档 转换 成 二 进制 数字 指纹 , 最终 用 汉 明 距离 来 衡量 指纹 间 的 差异 程度 。	1<2	elab-addition	elab-addition
nlpabs104_Chi	128-139	140-152	将 该 空间 的 文档 转换 成 二 进制 数字 指纹 ,	最终 用 汉 明 距离 来 衡量 指纹 间 的 差异 程度 。	91-152	91-152	该 方法 主要 通过 奇异 值 分解 获取 原始 文档 的 潜在 语义 特征 , 然后 将 原 文档 向量 空间 转换 到 与 其 对应 的 潜在 语义 空间 , 再 根据 随机 超 平面 原理 将 该 空间 的 文档 转换 成 二 进制 数字 指纹 , 最终 用 汉 明 距离 来 衡量 指纹 间 的 差异 程度 。	该 方法 主要 通过 奇异 值 分解 获取 原始 文档 的 潜在 语义 特征 , 然后 将 原 文档 向量 空间 转换 到 与 其 对应 的 潜在 语义 空间 , 再 根据 随机 超 平面 原理 将 该 空间 的 文档 转换 成 二 进制 数字 指纹 , 最终 用 汉 明 距离 来 衡量 指纹 间 的 差异 程度 。	1<2	joint	joint
nlpabs104_Chi	49-65	153-165	该文 提出 了 一 种 基 于 潜 在 语义 分析 的 文本 指纹 提取 方法 ,	实验 以 中国 知网 上 的 学术 论文 作 为 数据 对象 ,	49-90	153-185	该文 提出 了 一 种 基 于 潜 在 语义 分析 的 文本 指纹 提取 方法 , 该 方法 是 对 数据 信息 的 一 种 压缩 表示 , 是 针对 目前 指纹 提取 方法 语义 缺失 的 一 种 改进 。	实验 以 中国 知网 上 的 学术 论文 作 为 数据 对象 , 通过 对 论文 文本 进行 相似 度 实验 和 聚类 实验 对 该文 提出 的 方法 进行 实验 验证 。	1<2	evaluation	evaluation
nlpabs104_Chi	153-165	166-185	实验 以 中国 知网 上 的 学术 论文 作 为 数据 对象 ,	通过 对 论文 文本 进行 相似 度 实验 和 聚类 实验 对 该文 提出 的 方法 进行 实验 验证 。	153-185	153-185	实验 以 中国 知网 上 的 学术 论文 作 为 数据 对象 , 通过 对 论文 文本 进行 相似 度 实验 和 聚类 实验 对 该文 提出 的 方法 进行 实验 验证 。	实验 以 中国 知网 上 的 学术 论文 作 为 数据 对象 , 通过 对 论文 文本 进行 相似 度 实验 和 聚类 实验 对 该文 提出 的 方法 进行 实验 验证 。	1<2	elab-addition	elab-addition
nlpabs104_Chi	186-188	189-198	实验 结果 表明	该 方法 能够 较好 地 表征 文档 语义 信息 ,	186-212	186-212	实验 结果 表明 该 方法 能够 较好 地 表征 文档 语义 信息 , 进而 验证 了 文本 语义 压缩 表示 的 准确 性 和 有效 性 。	实验 结果 表明 该 方法 能够 较好 地 表征 文档 语义 信息 , 进而 验证 了 文本 语义 压缩 表示 的 准确 性 和 有效 性 。	1>2	attribution	attribution
nlpabs104_Chi	166-185	189-198	通过 对 论文 文本 进行 相似 度 实验 和 聚类 实验 对 该文 提出 的 方法 进行 实验 验证 。	该 方法 能够 较好 地 表征 文档 语义 信息 ,	153-185	186-212	实验 以 中国 知网 上 的 学术 论文 作 为 数据 对象 , 通过 对 论文 文本 进行 相似 度 实验 和 聚类 实验 对 该文 提出 的 方法 进行 实验 验证 。	实验 结果 表明 该 方法 能够 较好 地 表征 文档 语义 信息 , 进而 验证 了 文本 语义 压缩 表示 的 准确 性 和 有效 性 。	1<2	elab-addition	elab-addition
nlpabs104_Chi	189-198	199-212	该 方法 能够 较好 地 表征 文档 语义 信息 ,	进而 验证 了 文本 语义 压缩 表示 的 准确 性 和 有效 性 。	186-212	186-212	实验 结果 表明 该 方法 能够 较好 地 表征 文档 语义 信息 , 进而 验证 了 文本 语义 压缩 表示 的 准确 性 和 有效 性 。	实验 结果 表明 该 方法 能够 较好 地 表征 文档 语义 信息 , 进而 验证 了 文本 语义 压缩 表示 的 准确 性 和 有效 性 。	1<2	elab-addition	elab-addition
nlpabs105_Chi	1-11	57-76	文本 是 社交 媒体 用户 的 重要 信息 之 一 ,	为 此 该文 提出 一 种 融合 用户 信任 关系 及 词 相关 关系 的 词 特征 重建 方法 。	1-36	37-76	文本 是 社交 媒体 用户 的 重要 信息 之 一 , 从 文本 中 获取 用户 的 词 特征 是 实现 用户 主题 建模 、 兴趣 挖掘 及 个性 化 推荐 等 任务 的 基础 。	然而 社交 媒体 中 存在 许多 用户 ( 冷启 动用 户 ) 只 含有 少量 甚至 缺乏 文本 信息 , 为 此 该文 提出 一 种 融合 用户 信任 关系 及 词 相关 关系 的 词 特征 重建 方法 。	1>2	bg-general	bg-general
nlpabs105_Chi	1-11	12-36	文本 是 社交 媒体 用户 的 重要 信息 之 一 ,	从 文本 中 获取 用户 的 词 特征 是 实现 用户 主题 建模 、 兴趣 挖掘 及 个性 化 推荐 等 任务 的 基础 。	1-36	1-36	文本 是 社交 媒体 用户 的 重要 信息 之 一 , 从 文本 中 获取 用户 的 词 特征 是 实现 用户 主题 建模 、 兴趣 挖掘 及 个性 化 推荐 等 任务 的 基础 。	文本 是 社交 媒体 用户 的 重要 信息 之 一 , 从 文本 中 获取 用户 的 词 特征 是 实现 用户 主题 建模 、 兴趣 挖掘 及 个性 化 推荐 等 任务 的 基础 。	1<2	elab-addition	elab-addition
nlpabs105_Chi	12-36	37-56	从 文本 中 获取 用户 的 词 特征 是 实现 用户 主题 建模 、 兴趣 挖掘 及 个性 化 推荐 等 任务 的 基础 。	然而 社交 媒体 中 存在 许多 用户 ( 冷启 动用 户 ) 只 含有 少量 甚至 缺乏 文本 信息 ,	1-36	37-76	文本 是 社交 媒体 用户 的 重要 信息 之 一 , 从 文本 中 获取 用户 的 词 特征 是 实现 用户 主题 建模 、 兴趣 挖掘 及 个性 化 推荐 等 任务 的 基础 。	然而 社交 媒体 中 存在 许多 用户 ( 冷启 动用 户 ) 只 含有 少量 甚至 缺乏 文本 信息 , 为 此 该文 提出 一 种 融合 用户 信任 关系 及 词 相关 关系 的 词 特征 重建 方法 。	1<2	contrast	contrast
nlpabs105_Chi	57-76	77-99	为 此 该文 提出 一 种 融合 用户 信任 关系 及 词 相关 关系 的 词 特征 重建 方法 。	该 方法 通过 对 用户 信任 关系 矩阵 、 词相 关 关系 矩阵 和 用户 词 特征 矩阵 进行 联合 概率 矩阵 分解	37-76	77-109	然而 社交 媒体 中 存在 许多 用户 ( 冷启 动用 户 ) 只 含有 少量 甚至 缺乏 文本 信息 , 为 此 该文 提出 一 种 融合 用户 信任 关系 及 词 相关 关系 的 词 特征 重建 方法 。	该 方法 通过 对 用户 信任 关系 矩阵 、 词相 关 关系 矩阵 和 用户 词 特征 矩阵 进行 联合 概率 矩阵 分解 来 实现 对 冷启动 用户 的 词 特征 重建 。	1<2	elab-addition	elab-addition
nlpabs105_Chi	77-99	100-109	该 方法 通过 对 用户 信任 关系 矩阵 、 词相 关 关系 矩阵 和 用户 词 特征 矩阵 进行 联合 概率 矩阵 分解	来 实现 对 冷启动 用户 的 词 特征 重建 。	77-109	77-109	该 方法 通过 对 用户 信任 关系 矩阵 、 词相 关 关系 矩阵 和 用户 词 特征 矩阵 进行 联合 概率 矩阵 分解 来 实现 对 冷启动 用户 的 词 特征 重建 。	该 方法 通过 对 用户 信任 关系 矩阵 、 词相 关 关系 矩阵 和 用户 词 特征 矩阵 进行 联合 概率 矩阵 分解 来 实现 对 冷启动 用户 的 词 特征 重建 。	1<2	enablement	enablement
nlpabs105_Chi	110-124	125-144	在 新浪 微博 和 Twitter 的 四 组 数据 集上 的 实验 结果 表明 ,	该文 所 提出 的 冷启 动用 户 词 特征 重建 算法 能够 取得 较好 的 词 特征 重建 结果 。	110-144	110-144	在 新浪 微博 和 Twitter 的 四 组 数据 集上 的 实验 结果 表明 , 该文 所 提出 的 冷启 动用 户 词 特征 重建 算法 能够 取得 较好 的 词 特征 重建 结果 。	在 新浪 微博 和 Twitter 的 四 组 数据 集上 的 实验 结果 表明 , 该文 所 提出 的 冷启 动用 户 词 特征 重建 算法 能够 取得 较好 的 词 特征 重建 结果 。	1>2	attribution	attribution
nlpabs105_Chi	57-76	125-144	为 此 该文 提出 一 种 融合 用户 信任 关系 及 词 相关 关系 的 词 特征 重建 方法 。	该文 所 提出 的 冷启 动用 户 词 特征 重建 算法 能够 取得 较好 的 词 特征 重建 结果 。	37-76	110-144	然而 社交 媒体 中 存在 许多 用户 ( 冷启 动用 户 ) 只 含有 少量 甚至 缺乏 文本 信息 , 为 此 该文 提出 一 种 融合 用户 信任 关系 及 词 相关 关系 的 词 特征 重建 方法 。	在 新浪 微博 和 Twitter 的 四 组 数据 集上 的 实验 结果 表明 , 该文 所 提出 的 冷启 动用 户 词 特征 重建 算法 能够 取得 较好 的 词 特征 重建 结果 。	1<2	evaluation	evaluation
nlpabs106_Chi	1-29	112-136	实体 属性 挖掘 ( slot filling , SF ) 旨 在 从 大 规模 文档 集 中 挖掘 给定 实体 ( 称作 查询 ) 的 特定 属性 信息 。	该文 提出 一 种 基 于 跨 文档 实体 共指 消解 ( cross document coreferen ce resolution , CDCR ) 的 实体 搜索 模型 。	1-29	107-136	实体 属性 挖掘 ( slot filling , SF ) 旨 在 从 大 规模 文档 集 中 挖掘 给定 实体 ( 称作 查询 ) 的 特定 属性 信息 。	针对 这 一 问题 , 该文 提出 一 种 基 于 跨 文档 实体 共指 消解 ( cross document coreferen ce resolution , CDCR ) 的 实体 搜索 模型 。	1>2	bg-general	bg-general
nlpabs106_Chi	1-29	30-38	实体 属性 挖掘 ( slot filling , SF ) 旨 在 从 大 规模 文档 集 中 挖掘 给定 实体 ( 称作 查询 ) 的 特定 属性 信息 。	实体 搜索 是 SF 的 重要 组成 部分 ,	1-29	30-60	实体 属性 挖掘 ( slot filling , SF ) 旨 在 从 大 规模 文档 集 中 挖掘 给定 实体 ( 称作 查询 ) 的 特定 属性 信息 。	实体 搜索 是 SF 的 重要 组成 部分 , 负责 检索 包含 给定 查询 的 文档 ( 称 为 相关 文档 ) , 供 后续 模块 从中 抽取 属性 信息 。	1<2	elab-addition	elab-addition
nlpabs106_Chi	30-38	39-52	实体 搜索 是 SF 的 重要 组成 部分 ,	负责 检索 包含 给定 查询 的 文档 ( 称 为 相关 文档 ) ,	30-60	30-60	实体 搜索 是 SF 的 重要 组成 部分 , 负责 检索 包含 给定 查询 的 文档 ( 称 为 相关 文档 ) , 供 后续 模块 从中 抽取 属性 信息 。	实体 搜索 是 SF 的 重要 组成 部分 , 负责 检索 包含 给定 查询 的 文档 ( 称 为 相关 文档 ) , 供 后续 模块 从中 抽取 属性 信息 。	1<2	elab-addition	elab-addition
nlpabs106_Chi	39-52	53-60	负责 检索 包含 给定 查询 的 文档 ( 称 为 相关 文档 ) ,	供 后续 模块 从中 抽取 属性 信息 。	30-60	30-60	实体 搜索 是 SF 的 重要 组成 部分 , 负责 检索 包含 给定 查询 的 文档 ( 称 为 相关 文档 ) , 供 后续 模块 从中 抽取 属性 信息 。	实体 搜索 是 SF 的 重要 组成 部分 , 负责 检索 包含 给定 查询 的 文档 ( 称 为 相关 文档 ) , 供 后续 模块 从中 抽取 属性 信息 。	1<2	elab-addition	elab-addition
nlpabs106_Chi	30-38	61-71	实体 搜索 是 SF 的 重要 组成 部分 ,	目前 , SF 领域 关于 实体 搜索 的 研究 较少 ,	30-60	61-106	实体 搜索 是 SF 的 重要 组成 部分 , 负责 检索 包含 给定 查询 的 文档 ( 称 为 相关 文档 ) , 供 后续 模块 从中 抽取 属性 信息 。	目前 , SF 领域 关于 实体 搜索 的 研究 较少 , 使用 的 基 于 布尔 逻辑 的 检索 模型 忽略 了 实体 查询 的 特点 , 仅 使用 查询 的 词形 信息 , 受限 于 查询 歧义 性 , 检索 结果 准确 率 较低 。	1<2	elab-addition	elab-addition
nlpabs106_Chi	61-71	72-87	目前 , SF 领域 关于 实体 搜索 的 研究 较少 ,	使用 的 基 于 布尔 逻辑 的 检索 模型 忽略 了 实体 查询 的 特点 ,	61-106	61-106	目前 , SF 领域 关于 实体 搜索 的 研究 较少 , 使用 的 基 于 布尔 逻辑 的 检索 模型 忽略 了 实体 查询 的 特点 , 仅 使用 查询 的 词形 信息 , 受限 于 查询 歧义 性 , 检索 结果 准确 率 较低 。	目前 , SF 领域 关于 实体 搜索 的 研究 较少 , 使用 的 基 于 布尔 逻辑 的 检索 模型 忽略 了 实体 查询 的 特点 , 仅 使用 查询 的 词形 信息 , 受限 于 查询 歧义 性 , 检索 结果 准确 率 较低 。	1<2	elab-addition	elab-addition
nlpabs106_Chi	72-87	88-100	使用 的 基 于 布尔 逻辑 的 检索 模型 忽略 了 实体 查询 的 特点 ,	仅 使用 查询 的 词形 信息 , 受限 于 查询 歧义 性 ,	61-106	61-106	目前 , SF 领域 关于 实体 搜索 的 研究 较少 , 使用 的 基 于 布尔 逻辑 的 检索 模型 忽略 了 实体 查询 的 特点 , 仅 使用 查询 的 词形 信息 , 受限 于 查询 歧义 性 , 检索 结果 准确 率 较低 。	目前 , SF 领域 关于 实体 搜索 的 研究 较少 , 使用 的 基 于 布尔 逻辑 的 检索 模型 忽略 了 实体 查询 的 特点 , 仅 使用 查询 的 词形 信息 , 受限 于 查询 歧义 性 , 检索 结果 准确 率 较低 。	1<2	elab-addition	elab-addition
nlpabs106_Chi	88-100	101-106	仅 使用 查询 的 词形 信息 , 受限 于 查询 歧义 性 ,	检索 结果 准确 率 较低 。	61-106	61-106	目前 , SF 领域 关于 实体 搜索 的 研究 较少 , 使用 的 基 于 布尔 逻辑 的 检索 模型 忽略 了 实体 查询 的 特点 , 仅 使用 查询 的 词形 信息 , 受限 于 查询 歧义 性 , 检索 结果 准确 率 较低 。	目前 , SF 领域 关于 实体 搜索 的 研究 较少 , 使用 的 基 于 布尔 逻辑 的 检索 模型 忽略 了 实体 查询 的 特点 , 仅 使用 查询 的 词形 信息 , 受限 于 查询 歧义 性 , 检索 结果 准确 率 较低 。	1<2	result	result
nlpabs106_Chi	107-111	112-136	针对 这 一 问题 ,	该文 提出 一 种 基 于 跨 文档 实体 共指 消解 ( cross document coreferen ce resolution , CDCR ) 的 实体 搜索 模型 。	107-136	107-136	针对 这 一 问题 , 该文 提出 一 种 基 于 跨 文档 实体 共指 消解 ( cross document coreferen ce resolution , CDCR ) 的 实体 搜索 模型 。	针对 这 一 问题 , 该文 提出 一 种 基 于 跨 文档 实体 共指 消解 ( cross document coreferen ce resolution , CDCR ) 的 实体 搜索 模型 。	1>2	bg-general	bg-general
nlpabs106_Chi	112-136	137-153	该文 提出 一 种 基 于 跨 文档 实体 共指 消解 ( cross document coreferen ce resolution , CDCR ) 的 实体 搜索 模型 。	该 方法 通过 对 召回 率 较高 但 准确 率 较低 的 候选 结果 进行 CDCR ,	107-136	137-172	针对 这 一 问题 , 该文 提出 一 种 基 于 跨 文档 实体 共指 消解 ( cross document coreferen ce resolution , CDCR ) 的 实体 搜索 模型 。	该 方法 通过 对 召回 率 较高 但 准确 率 较低 的 候选 结果 进行 CDCR , 过滤 不 包含 与 给定 实体 共 指 实体 的 文档 , 提高 检索 结果 的 准确 率 。	1<2	elab-addition	elab-addition
nlpabs106_Chi	137-153	154-165	该 方法 通过 对 召回 率 较高 但 准确 率 较低 的 候选 结果 进行 CDCR ,	过滤 不 包含 与 给定 实体 共 指 实体 的 文档 ,	137-172	137-172	该 方法 通过 对 召回 率 较高 但 准确 率 较低 的 候选 结果 进行 CDCR , 过滤 不 包含 与 给定 实体 共 指 实体 的 文档 , 提高 检索 结果 的 准确 率 。	该 方法 通过 对 召回 率 较高 但 准确 率 较低 的 候选 结果 进行 CDCR , 过滤 不 包含 与 给定 实体 共 指 实体 的 文档 , 提高 检索 结果 的 准确 率 。	1<2	enablement	enablement
nlpabs106_Chi	154-165	166-172	过滤 不 包含 与 给定 实体 共 指 实体 的 文档 ,	提高 检索 结果 的 准确 率 。	137-172	137-172	该 方法 通过 对 召回 率 较高 但 准确 率 较低 的 候选 结果 进行 CDCR , 过滤 不 包含 与 给定 实体 共 指 实体 的 文档 , 提高 检索 结果 的 准确 率 。	该 方法 通过 对 召回 率 较高 但 准确 率 较低 的 候选 结果 进行 CDCR , 过滤 不 包含 与 给定 实体 共 指 实体 的 文档 , 提高 检索 结果 的 准确 率 。	1<2	enablement	enablement
nlpabs106_Chi	173-181	182-194	为了 降低 过滤 造成 的 召回 率 损失 ,	该文 使用 伪 相关 反馈 方法 扩充 查询 实体 的 描述 信息 。	173-194	173-194	为了 降低 过滤 造成 的 召回 率 损失 , 该文 使用 伪 相关 反馈 方法 扩充 查询 实体 的 描述 信息 。	为了 降低 过滤 造成 的 召回 率 损失 , 该文 使用 伪 相关 反馈 方法 扩充 查询 实体 的 描述 信息 。	1>2	enablement	enablement
nlpabs106_Chi	112-136	182-194	该文 提出 一 种 基 于 跨 文档 实体 共指 消解 ( cross document coreferen ce resolution , CDCR ) 的 实体 搜索 模型 。	该文 使用 伪 相关 反馈 方法 扩充 查询 实体 的 描述 信息 。	107-136	173-194	针对 这 一 问题 , 该文 提出 一 种 基 于 跨 文档 实体 共指 消解 ( cross document coreferen ce resolution , CDCR ) 的 实体 搜索 模型 。	为了 降低 过滤 造成 的 召回 率 损失 , 该文 使用 伪 相关 反馈 方法 扩充 查询 实体 的 描述 信息 。	1<2	elab-addition	elab-addition
nlpabs106_Chi	195-198	204-211	实验 结果 显示 ,	该 方法 能 有效 提升 检索 结果 ,	195-221	195-221	实验 结果 显示 , 相比 于 基准 系统 , 该 方法 能 有效 提升 检索 结果 , 准确 率 和 F1 分别 提升 5.63% 、 2.56% 。	实验 结果 显示 , 相比 于 基准 系统 , 该 方法 能 有效 提升 检索 结果 , 准确 率 和 F1 分别 提升 5.63% 、 2.56% 。	1>2	attribution	attribution
nlpabs106_Chi	199-203	204-211	相比 于 基准 系统 ,	该 方法 能 有效 提升 检索 结果 ,	195-221	195-221	实验 结果 显示 , 相比 于 基准 系统 , 该 方法 能 有效 提升 检索 结果 , 准确 率 和 F1 分别 提升 5.63% 、 2.56% 。	实验 结果 显示 , 相比 于 基准 系统 , 该 方法 能 有效 提升 检索 结果 , 准确 率 和 F1 分别 提升 5.63% 、 2.56% 。	1>2	comparison	comparison
nlpabs106_Chi	112-136	204-211	该文 提出 一 种 基 于 跨 文档 实体 共指 消解 ( cross document coreferen ce resolution , CDCR ) 的 实体 搜索 模型 。	该 方法 能 有效 提升 检索 结果 ,	107-136	195-221	针对 这 一 问题 , 该文 提出 一 种 基 于 跨 文档 实体 共指 消解 ( cross document coreferen ce resolution , CDCR ) 的 实体 搜索 模型 。	实验 结果 显示 , 相比 于 基准 系统 , 该 方法 能 有效 提升 检索 结果 , 准确 率 和 F1 分别 提升 5.63% 、 2.56% 。	1<2	evaluation	evaluation
nlpabs106_Chi	204-211	212-221	该 方法 能 有效 提升 检索 结果 ,	准确 率 和 F1 分别 提升 5.63% 、 2.56% 。	195-221	195-221	实验 结果 显示 , 相比 于 基准 系统 , 该 方法 能 有效 提升 检索 结果 , 准确 率 和 F1 分别 提升 5.63% 、 2.56% 。	实验 结果 显示 , 相比 于 基准 系统 , 该 方法 能 有效 提升 检索 结果 , 准确 率 和 F1 分别 提升 5.63% 、 2.56% 。	1<2	elab-addition	elab-addition
nlpabs107_Chi	1-21	75-92	在 文本 情感 分析 时 , 使用 无 监督 的 聚类 方法 , 可以 有效 节省 人力 和 数据 资源 ,	提出 一 种 基 于 子 空间 的 文本 语义 相似 度 计算 方法 ( RESS ) 。	1-31	32-92	在 文本 情感 分析 时 , 使用 无 监督 的 聚类 方法 , 可以 有效 节省 人力 和 数据 资源 , 但 同时 也 面临 聚类 精度 不高 的 问题 。	相似 性 是 文本 聚类 的 主要 依据 , 该文 从 文本 相似 度 计算 的 角度 , 针对 情感 聚类 中 文本 — 特征 向量 的 高维 和 稀疏 问题 , 以及 对 评论 文本 潜在 情感 因素 的 表示 问题 , 提出 一 种 基 于 子 空间 的 文本 语义 相似 度 计算 方法 ( RESS ) 。	1>2	bg-compare	bg-compare
nlpabs107_Chi	1-21	22-31	在 文本 情感 分析 时 , 使用 无 监督 的 聚类 方法 , 可以 有效 节省 人力 和 数据 资源 ,	但 同时 也 面临 聚类 精度 不高 的 问题 。	1-31	1-31	在 文本 情感 分析 时 , 使用 无 监督 的 聚类 方法 , 可以 有效 节省 人力 和 数据 资源 , 但 同时 也 面临 聚类 精度 不高 的 问题 。	在 文本 情感 分析 时 , 使用 无 监督 的 聚类 方法 , 可以 有效 节省 人力 和 数据 资源 , 但 同时 也 面临 聚类 精度 不高 的 问题 。	1<2	contrast	contrast
nlpabs107_Chi	32-40	75-92	相似 性 是 文本 聚类 的 主要 依据 ,	提出 一 种 基 于 子 空间 的 文本 语义 相似 度 计算 方法 ( RESS ) 。	32-92	32-92	相似 性 是 文本 聚类 的 主要 依据 , 该文 从 文本 相似 度 计算 的 角度 , 针对 情感 聚类 中 文本 — 特征 向量 的 高维 和 稀疏 问题 , 以及 对 评论 文本 潜在 情感 因素 的 表示 问题 , 提出 一 种 基 于 子 空间 的 文本 语义 相似 度 计算 方法 ( RESS ) 。	相似 性 是 文本 聚类 的 主要 依据 , 该文 从 文本 相似 度 计算 的 角度 , 针对 情感 聚类 中 文本 — 特征 向量 的 高维 和 稀疏 问题 , 以及 对 评论 文本 潜在 情感 因素 的 表示 问题 , 提出 一 种 基 于 子 空间 的 文本 语义 相似 度 计算 方法 ( RESS ) 。	1>2	exp-reason	exp-reason
nlpabs107_Chi	41-63	75-92	该文 从 文本 相似 度 计算 的 角度 , 针对 情感 聚类 中 文本 — 特征 向量 的 高维 和 稀疏 问题 ,	提出 一 种 基 于 子 空间 的 文本 语义 相似 度 计算 方法 ( RESS ) 。	32-92	32-92	相似 性 是 文本 聚类 的 主要 依据 , 该文 从 文本 相似 度 计算 的 角度 , 针对 情感 聚类 中 文本 — 特征 向量 的 高维 和 稀疏 问题 , 以及 对 评论 文本 潜在 情感 因素 的 表示 问题 , 提出 一 种 基 于 子 空间 的 文本 语义 相似 度 计算 方法 ( RESS ) 。	相似 性 是 文本 聚类 的 主要 依据 , 该文 从 文本 相似 度 计算 的 角度 , 针对 情感 聚类 中 文本 — 特征 向量 的 高维 和 稀疏 问题 , 以及 对 评论 文本 潜在 情感 因素 的 表示 问题 , 提出 一 种 基 于 子 空间 的 文本 语义 相似 度 计算 方法 ( RESS ) 。	1>2	bg-goal	bg-goal
nlpabs107_Chi	41-63	64-74	该文 从 文本 相似 度 计算 的 角度 , 针对 情感 聚类 中 文本 — 特征 向量 的 高维 和 稀疏 问题 ,	以及 对 评论 文本 潜在 情感 因素 的 表示 问题 ,	32-92	32-92	相似 性 是 文本 聚类 的 主要 依据 , 该文 从 文本 相似 度 计算 的 角度 , 针对 情感 聚类 中 文本 — 特征 向量 的 高维 和 稀疏 问题 , 以及 对 评论 文本 潜在 情感 因素 的 表示 问题 , 提出 一 种 基 于 子 空间 的 文本 语义 相似 度 计算 方法 ( RESS ) 。	相似 性 是 文本 聚类 的 主要 依据 , 该文 从 文本 相似 度 计算 的 角度 , 针对 情感 聚类 中 文本 — 特征 向量 的 高维 和 稀疏 问题 , 以及 对 评论 文本 潜在 情感 因素 的 表示 问题 , 提出 一 种 基 于 子 空间 的 文本 语义 相似 度 计算 方法 ( RESS ) 。	1<2	joint	joint
nlpabs107_Chi	93-96	97-115	实验 结果 表明 ,	基 于 RESS 的 文本 相似 度 计算 方法 , 有效 解决 了 文本 向量 的 高维 问题 ,	93-132	93-132	实验 结果 表明 , 基 于 RESS 的 文本 相似 度 计算 方法 , 有效 解决 了 文本 向量 的 高维 问题 , 更好 地 表达 了 文本 间 情感 相似 性 , 并 获得 较好 的 聚类 结果 。	实验 结果 表明 , 基 于 RESS 的 文本 相似 度 计算 方法 , 有效 解决 了 文本 向量 的 高维 问题 , 更好 地 表达 了 文本 间 情感 相似 性 , 并 获得 较好 的 聚类 结果 。	1>2	attribution	attribution
nlpabs107_Chi	75-92	97-115	提出 一 种 基 于 子 空间 的 文本 语义 相似 度 计算 方法 ( RESS ) 。	基 于 RESS 的 文本 相似 度 计算 方法 , 有效 解决 了 文本 向量 的 高维 问题 ,	32-92	93-132	相似 性 是 文本 聚类 的 主要 依据 , 该文 从 文本 相似 度 计算 的 角度 , 针对 情感 聚类 中 文本 — 特征 向量 的 高维 和 稀疏 问题 , 以及 对 评论 文本 潜在 情感 因素 的 表示 问题 , 提出 一 种 基 于 子 空间 的 文本 语义 相似 度 计算 方法 ( RESS ) 。	实验 结果 表明 , 基 于 RESS 的 文本 相似 度 计算 方法 , 有效 解决 了 文本 向量 的 高维 问题 , 更好 地 表达 了 文本 间 情感 相似 性 , 并 获得 较好 的 聚类 结果 。	1<2	evaluation	evaluation
nlpabs107_Chi	97-115	116-125	基 于 RESS 的 文本 相似 度 计算 方法 , 有效 解决 了 文本 向量 的 高维 问题 ,	更好 地 表达 了 文本 间 情感 相似 性 ,	93-132	93-132	实验 结果 表明 , 基 于 RESS 的 文本 相似 度 计算 方法 , 有效 解决 了 文本 向量 的 高维 问题 , 更好 地 表达 了 文本 间 情感 相似 性 , 并 获得 较好 的 聚类 结果 。	实验 结果 表明 , 基 于 RESS 的 文本 相似 度 计算 方法 , 有效 解决 了 文本 向量 的 高维 问题 , 更好 地 表达 了 文本 间 情感 相似 性 , 并 获得 较好 的 聚类 结果 。	1<2	elab-addition	elab-addition
nlpabs107_Chi	116-125	126-132	更好 地 表达 了 文本 间 情感 相似 性 ,	并 获得 较好 的 聚类 结果 。	93-132	93-132	实验 结果 表明 , 基 于 RESS 的 文本 相似 度 计算 方法 , 有效 解决 了 文本 向量 的 高维 问题 , 更好 地 表达 了 文本 间 情感 相似 性 , 并 获得 较好 的 聚类 结果 。	实验 结果 表明 , 基 于 RESS 的 文本 相似 度 计算 方法 , 有效 解决 了 文本 向量 的 高维 问题 , 更好 地 表达 了 文本 间 情感 相似 性 , 并 获得 较好 的 聚类 结果 。	1<2	elab-addition	elab-addition
nlpabs108_Chi	1-17	57-74	随 着 互联 网 的 飞速 发展 , 网络 舆情 引发 的 问题 也 越发 突出 。	该文 从 主题 热度 变化 、 内容 变化 及 关键 词 等 多 方面 进行 了 研究 。	1-17	36-74	随 着 互联 网 的 飞速 发展 , 网络 舆情 引发 的 问题 也 越发 突出 。	主题 演化 是 网络 舆情 分析 的 重要 内容 之 一 , 为了 把 握关 于 新疆 的 舆情 动态 , 该文 从 主题 热度 变化 、 内容 变化 及 关键 词 等 多 方面 进行 了 研究 。	1>2	bg-general	bg-general
nlpabs108_Chi	1-17	18-35	随 着 互联 网 的 飞速 发展 , 网络 舆情 引发 的 问题 也 越发 突出 。	尤其 是 近年 来 发生 的 新疆 暴恐 事件 , 已 成 为 公众 关注 的 焦点 。	1-17	18-35	随 着 互联 网 的 飞速 发展 , 网络 舆情 引发 的 问题 也 越发 突出 。	尤其 是 近年 来 发生 的 新疆 暴恐 事件 , 已 成 为 公众 关注 的 焦点 。	1<2	elab-addition	elab-addition
nlpabs108_Chi	36-47	57-74	主题 演化 是 网络 舆情 分析 的 重要 内容 之 一 ,	该文 从 主题 热度 变化 、 内容 变化 及 关键 词 等 多 方面 进行 了 研究 。	36-74	36-74	主题 演化 是 网络 舆情 分析 的 重要 内容 之 一 , 为了 把 握关 于 新疆 的 舆情 动态 , 该文 从 主题 热度 变化 、 内容 变化 及 关键 词 等 多 方面 进行 了 研究 。	主题 演化 是 网络 舆情 分析 的 重要 内容 之 一 , 为了 把 握关 于 新疆 的 舆情 动态 , 该文 从 主题 热度 变化 、 内容 变化 及 关键 词 等 多 方面 进行 了 研究 。	1>2	bg-general	bg-general
nlpabs108_Chi	48-56	57-74	为了 把 握关 于 新疆 的 舆情 动态 ,	该文 从 主题 热度 变化 、 内容 变化 及 关键 词 等 多 方面 进行 了 研究 。	36-74	36-74	主题 演化 是 网络 舆情 分析 的 重要 内容 之 一 , 为了 把 握关 于 新疆 的 舆情 动态 , 该文 从 主题 热度 变化 、 内容 变化 及 关键 词 等 多 方面 进行 了 研究 。	主题 演化 是 网络 舆情 分析 的 重要 内容 之 一 , 为了 把 握关 于 新疆 的 舆情 动态 , 该文 从 主题 热度 变化 、 内容 变化 及 关键 词 等 多 方面 进行 了 研究 。	1>2	enablement	enablement
nlpabs108_Chi	57-74	75-97	该文 从 主题 热度 变化 、 内容 变化 及 关键 词 等 多 方面 进行 了 研究 。	该文 首先 抓取 了 20131 月 到 201512 月 互联 网 中 关于 新疆 暴恐 事件 的 新闻 ,	36-74	75-117	主题 演化 是 网络 舆情 分析 的 重要 内容 之 一 , 为了 把 握关 于 新疆 的 舆情 动态 , 该文 从 主题 热度 变化 、 内容 变化 及 关键 词 等 多 方面 进行 了 研究 。	该文 首先 抓取 了 20131 月 到 201512 月 互联 网 中 关于 新疆 暴恐 事件 的 新闻 , 并 以 此作 为 数据 集 建立 了 动态 主题 模型 , 实现 对 新闻 的 主题 演化 分析 。	1<2	elab-addition	elab-addition
nlpabs108_Chi	75-97	98-109	该文 首先 抓取 了 20131 月 到 201512 月 互联 网 中 关于 新疆 暴恐 事件 的 新闻 ,	并 以 此作 为 数据 集 建立 了 动态 主题 模型 ,	75-117	75-117	该文 首先 抓取 了 20131 月 到 201512 月 互联 网 中 关于 新疆 暴恐 事件 的 新闻 , 并 以 此作 为 数据 集 建立 了 动态 主题 模型 , 实现 对 新闻 的 主题 演化 分析 。	该文 首先 抓取 了 20131 月 到 201512 月 互联 网 中 关于 新疆 暴恐 事件 的 新闻 , 并 以 此作 为 数据 集 建立 了 动态 主题 模型 , 实现 对 新闻 的 主题 演化 分析 。	1<2	joint	joint
nlpabs108_Chi	98-109	110-117	并 以 此作 为 数据 集 建立 了 动态 主题 模型 ,	实现 对 新闻 的 主题 演化 分析 。	75-117	75-117	该文 首先 抓取 了 20131 月 到 201512 月 互联 网 中 关于 新疆 暴恐 事件 的 新闻 , 并 以 此作 为 数据 集 建立 了 动态 主题 模型 , 实现 对 新闻 的 主题 演化 分析 。	该文 首先 抓取 了 20131 月 到 201512 月 互联 网 中 关于 新疆 暴恐 事件 的 新闻 , 并 以 此作 为 数据 集 建立 了 动态 主题 模型 , 实现 对 新闻 的 主题 演化 分析 。	1<2	enablement	enablement
nlpabs108_Chi	98-109	118-130	并 以 此作 为 数据 集 建立 了 动态 主题 模型 ,	该 模型 采用 两 次 非 负 矩阵 分解 来 生成 主题 ,	75-117	118-155	该文 首先 抓取 了 20131 月 到 201512 月 互联 网 中 关于 新疆 暴恐 事件 的 新闻 , 并 以 此作 为 数据 集 建立 了 动态 主题 模型 , 实现 对 新闻 的 主题 演化 分析 。	该 模型 采用 两 次 非 负 矩阵 分解 来 生成 主题 , 以 层级 式 狄利克雷 过程 为 对比 实验 , 通过 可 视 化 分析 与 比较 , 总结 出 新疆 暴恐 事件 的 一些 规律	1<2	elab-addition	elab-addition
nlpabs108_Chi	118-130	131-139	该 模型 采用 两 次 非 负 矩阵 分解 来 生成 主题 ,	以 层级 式 狄利克雷 过程 为 对比 实验 ,	118-155	118-155	该 模型 采用 两 次 非 负 矩阵 分解 来 生成 主题 , 以 层级 式 狄利克雷 过程 为 对比 实验 , 通过 可 视 化 分析 与 比较 , 总结 出 新疆 暴恐 事件 的 一些 规律	该 模型 采用 两 次 非 负 矩阵 分解 来 生成 主题 , 以 层级 式 狄利克雷 过程 为 对比 实验 , 通过 可 视 化 分析 与 比较 , 总结 出 新疆 暴恐 事件 的 一些 规律	1<2	elab-addition	elab-addition
nlpabs108_Chi	131-139	140-155	以 层级 式 狄利克雷 过程 为 对比 实验 ,	通过 可 视 化 分析 与 比较 , 总结 出 新疆 暴恐 事件 的 一些 规律	118-155	118-155	该 模型 采用 两 次 非 负 矩阵 分解 来 生成 主题 , 以 层级 式 狄利克雷 过程 为 对比 实验 , 通过 可 视 化 分析 与 比较 , 总结 出 新疆 暴恐 事件 的 一些 规律	该 模型 采用 两 次 非 负 矩阵 分解 来 生成 主题 , 以 层级 式 狄利克雷 过程 为 对比 实验 , 通过 可 视 化 分析 与 比较 , 总结 出 新疆 暴恐 事件 的 一些 规律	1<2	elab-addition	elab-addition
nlpabs10_Chi	1-29	100-121	作 为 自然 语言 处理 一 个 新 的 研究 方向 , 话题 识别 与 跟踪 旨 在 发展 一 系列 基 于 事件 的 信息 组织 技术 ,	该文 介绍 了 话题 识别 与 跟踪 研究 的 发展 历史 、 研究 任务 、 主要 技术 及 评价 方法 等 ,	1-49	100-134	作 为 自然 语言 处理 一 个 新 的 研究 方向 , 话题 识别 与 跟踪 旨 在 发展 一 系列 基 于 事件 的 信息 组织 技术 , 以 实现 对 新闻 媒体信 息流 中 新 话题 的 自动 识别 以及 对 已知 话题 的 动态 跟踪 。	该文 介绍 了 话题 识别 与 跟踪 研究 的 发展 历史 、 研究 任务 、 主要 技术 及 评价 方法 等 , 希望 能 引起 相关 研究 者 对 这 项 研究 的 关注 。	1>2	bg-general	bg-general
nlpabs10_Chi	1-29	30-49	作 为 自然 语言 处理 一 个 新 的 研究 方向 , 话题 识别 与 跟踪 旨 在 发展 一 系列 基 于 事件 的 信息 组织 技术 ,	以 实现 对 新闻 媒体信 息流 中 新 话题 的 自动 识别 以及 对 已知 话题 的 动态 跟踪 。	1-49	1-49	作 为 自然 语言 处理 一 个 新 的 研究 方向 , 话题 识别 与 跟踪 旨 在 发展 一 系列 基 于 事件 的 信息 组织 技术 , 以 实现 对 新闻 媒体信 息流 中 新 话题 的 自动 识别 以及 对 已知 话题 的 动态 跟踪 。	作 为 自然 语言 处理 一 个 新 的 研究 方向 , 话题 识别 与 跟踪 旨 在 发展 一 系列 基 于 事件 的 信息 组织 技术 , 以 实现 对 新闻 媒体信 息流 中 新 话题 的 自动 识别 以及 对 已知 话题 的 动态 跟踪 。	1<2	enablement	enablement
nlpabs10_Chi	1-29	50-86	作 为 自然 语言 处理 一 个 新 的 研究 方向 , 话题 识别 与 跟踪 旨 在 发展 一 系列 基 于 事件 的 信息 组织 技术 ,	自 1997 年 以来 连续 举行 的 多 次 大 规模 评测 使得 话题 识别 与 跟踪 研究 正 逐步 成 为 近来 自然 语言 处理 尤其 是 信息 检索 领域 的 一 个 研究 热点 ,	1-49	50-99	作 为 自然 语言 处理 一 个 新 的 研究 方向 , 话题 识别 与 跟踪 旨 在 发展 一 系列 基 于 事件 的 信息 组织 技术 , 以 实现 对 新闻 媒体信 息流 中 新 话题 的 自动 识别 以及 对 已知 话题 的 动态 跟踪 。	自 1997 年 以来 连续 举行 的 多 次 大 规模 评测 使得 话题 识别 与 跟踪 研究 正 逐步 成 为 近来 自然 语言 处理 尤其 是 信息 检索 领域 的 一 个 研究 热点 , 目前 国内 在 这 方面 的 研究 尚 处 在 起步 阶段 。	1<2	elab-addition	elab-addition
nlpabs10_Chi	50-86	87-991997 年 以来 连续 举行 的 多 次 大 规模 评测 使得 话题 识别 与 跟踪 研究 正 逐步 成 为 近来 自然 语言 处理 尤其 是 信息 检索 领域 的 一 个 研究 热点 ,	目前 国内 在 这 方面 的 研究 尚 处 在 起步 阶段 。	50-99	50-991997 年 以来 连续 举行 的 多 次 大 规模 评测 使得 话题 识别 与 跟踪 研究 正 逐步 成 为 近来 自然 语言 处理 尤其 是 信息 检索 领域 的 一 个 研究 热点 , 目前 国内 在 这 方面 的 研究 尚 处 在 起步 阶段 。	自 1997 年 以来 连续 举行 的 多 次 大 规模 评测 使得 话题 识别 与 跟踪 研究 正 逐步 成 为 近来 自然 语言 处理 尤其 是 信息 检索 领域 的 一 个 研究 热点 , 目前 国内 在 这 方面 的 研究 尚 处 在 起步 阶段 。	1<2	elab-addition	elab-addition
nlpabs10_Chi	100-121	122-134	该文 介绍 了 话题 识别 与 跟踪 研究 的 发展 历史 、 研究 任务 、 主要 技术 及 评价 方法 等 ,	希望 能 引起 相关 研究 者 对 这 项 研究 的 关注 。	100-134	100-134	该文 介绍 了 话题 识别 与 跟踪 研究 的 发展 历史 、 研究 任务 、 主要 技术 及 评价 方法 等 , 希望 能 引起 相关 研究 者 对 这 项 研究 的 关注 。	该文 介绍 了 话题 识别 与 跟踪 研究 的 发展 历史 、 研究 任务 、 主要 技术 及 评价 方法 等 , 希望 能 引起 相关 研究 者 对 这 项 研究 的 关注 。	1<2	elab-addition	elab-addition
nlpabs11_Chi	1-10	66-76	自然 语言 是 人类 交流 最 自然 的 方式 。	受控 自然 语言 随 着 这些 需求 应运 而 生 。	1-10	26-76	自然 语言 是 人类 交流 最 自然 的 方式 。	现代 社会 尤其 是 当前 信息 时代 面对 大量 的 信息 数据 , 不少 工业 场景 和 科研 领域 以及 各种 人机 交互 的 应用 要求 清晰 精准 、 标准 化 而 又 较为 自然 的 表达 和 交流 , 受控 自然 语言 随 着 这些 需求 应运 而 生 。	1>2	bg-general	bg-general
nlpabs11_Chi	1-10	11-25	自然 语言 是 人类 交流 最 自然 的 方式 。	但 其 复杂 性 和 模糊 性 常常 给 有效 的 交流 带来 问题 。	1-10	11-25	自然 语言 是 人类 交流 最 自然 的 方式 。	但 其 复杂 性 和 模糊 性 常常 给 有效 的 交流 带来 问题 。	1<2	elab-addition	elab-addition
nlpabs11_Chi	26-38	77-99	现代 社会 尤其 是 当前 信息 时代 面对 大量 的 信息 数据 ,	该 文 讨论 受控 自然 语言 及 其 性质 、 分类 和 应用 , 以及 受控 自然 语言 的 计算 处理 方法 。	26-76	77-99	现代 社会 尤其 是 当前 信息 时代 面对 大量 的 信息 数据 , 不少 工业 场景 和 科研 领域 以及 各种 人机 交互 的 应用 要求 清晰 精准 、 标准 化 而 又 较为 自然 的 表达 和 交流 , 受控 自然 语言 随 着 这些 需求 应运 而 生 。	该 文 讨论 受控 自然 语言 及 其 性质 、 分类 和 应用 , 以及 受控 自然 语言 的 计算 处理 方法 。	1>2	bg-general	bg-general
nlpabs11_Chi	26-38	39-65	现代 社会 尤其 是 当前 信息 时代 面对 大量 的 信息 数据 ,	不少 工业 场景 和 科研 领域 以及 各种 人机 交互 的 应用 要求 清晰 精准 、 标准 化 而 又 较为 自然 的 表达 和 交流 ,	26-76	26-76	现代 社会 尤其 是 当前 信息 时代 面对 大量 的 信息 数据 , 不少 工业 场景 和 科研 领域 以及 各种 人机 交互 的 应用 要求 清晰 精准 、 标准 化 而 又 较为 自然 的 表达 和 交流 , 受控 自然 语言 随 着 这些 需求 应运 而 生 。	现代 社会 尤其 是 当前 信息 时代 面对 大量 的 信息 数据 , 不少 工业 场景 和 科研 领域 以及 各种 人机 交互 的 应用 要求 清晰 精准 、 标准 化 而 又 较为 自然 的 表达 和 交流 , 受控 自然 语言 随 着 这些 需求 应运 而 生 。	1<2	elab-addition	elab-addition
nlpabs11_Chi	39-65	66-76	不少 工业 场景 和 科研 领域 以及 各种 人机 交互 的 应用 要求 清晰 精准 、 标准 化 而 又 较为 自然 的 表达 和 交流 ,	受控 自然 语言 随 着 这些 需求 应运 而 生 。	26-76	26-76	现代 社会 尤其 是 当前 信息 时代 面对 大量 的 信息 数据 , 不少 工业 场景 和 科研 领域 以及 各种 人机 交互 的 应用 要求 清晰 精准 、 标准 化 而 又 较为 自然 的 表达 和 交流 , 受控 自然 语言 随 着 这些 需求 应运 而 生 。	现代 社会 尤其 是 当前 信息 时代 面对 大量 的 信息 数据 , 不少 工业 场景 和 科研 领域 以及 各种 人机 交互 的 应用 要求 清晰 精准 、 标准 化 而 又 较为 自然 的 表达 和 交流 , 受控 自然 语言 随 着 这些 需求 应运 而 生 。	1<2	elab-addition	elab-addition
nlpabs11_Chi	77-99	100-116	该 文 讨论 受控 自然 语言 及 其 性质 、 分类 和 应用 , 以及 受控 自然 语言 的 计算 处理 方法 。	该文 将 以 航空 工业 民 用 飞机 所 涉及 的 英 语 文本 数据 为 例	77-99	100-157	该 文 讨论 受控 自然 语言 及 其 性质 、 分类 和 应用 , 以及 受控 自然 语言 的 计算 处理 方法 。	该文 将 以 航空 工业 民 用 飞机 所 涉及 的 英 语 文本 数据 为 例 来 阐述 受控 自然 语言 在 工业 场景 中 的 作用 和 重要 性 , 并且 简要 讨论 受控 自然 语言 更为 广泛 的 意义 和 价值 , 涉及 其他 领域 包括 当前 热门 的 人工 智能 等 相关 的 课题	1<2	elab-addition	elab-addition
nlpabs11_Chi	100-116	117-131	该文 将 以 航空 工业 民 用 飞机 所 涉及 的 英 语 文本 数据 为 例	来 阐述 受控 自然 语言 在 工业 场景 中 的 作用 和 重要 性 ,	100-157	100-157	该文 将 以 航空 工业 民 用 飞机 所 涉及 的 英 语 文本 数据 为 例 来 阐述 受控 自然 语言 在 工业 场景 中 的 作用 和 重要 性 , 并且 简要 讨论 受控 自然 语言 更为 广泛 的 意义 和 价值 , 涉及 其他 领域 包括 当前 热门 的 人工 智能 等 相关 的 课题	该文 将 以 航空 工业 民 用 飞机 所 涉及 的 英 语 文本 数据 为 例 来 阐述 受控 自然 语言 在 工业 场景 中 的 作用 和 重要 性 , 并且 简要 讨论 受控 自然 语言 更为 广泛 的 意义 和 价值 , 涉及 其他 领域 包括 当前 热门 的 人工 智能 等 相关 的 课题	1<2	enablement	enablement
nlpabs11_Chi	117-131	132-144	来 阐述 受控 自然 语言 在 工业 场景 中 的 作用 和 重要 性 ,	并且 简要 讨论 受控 自然 语言 更为 广泛 的 意义 和 价值 ,	100-157	100-157	该文 将 以 航空 工业 民 用 飞机 所 涉及 的 英 语 文本 数据 为 例 来 阐述 受控 自然 语言 在 工业 场景 中 的 作用 和 重要 性 , 并且 简要 讨论 受控 自然 语言 更为 广泛 的 意义 和 价值 , 涉及 其他 领域 包括 当前 热门 的 人工 智能 等 相关 的 课题	该文 将 以 航空 工业 民 用 飞机 所 涉及 的 英 语 文本 数据 为 例 来 阐述 受控 自然 语言 在 工业 场景 中 的 作用 和 重要 性 , 并且 简要 讨论 受控 自然 语言 更为 广泛 的 意义 和 价值 , 涉及 其他 领域 包括 当前 热门 的 人工 智能 等 相关 的 课题	1<2	joint	joint
nlpabs11_Chi	132-144	145-157	并且 简要 讨论 受控 自然 语言 更为 广泛 的 意义 和 价值 ,	涉及 其他 领域 包括 当前 热门 的 人工 智能 等 相关 的 课题	100-157	100-157	该文 将 以 航空 工业 民 用 飞机 所 涉及 的 英 语 文本 数据 为 例 来 阐述 受控 自然 语言 在 工业 场景 中 的 作用 和 重要 性 , 并且 简要 讨论 受控 自然 语言 更为 广泛 的 意义 和 价值 , 涉及 其他 领域 包括 当前 热门 的 人工 智能 等 相关 的 课题	该文 将 以 航空 工业 民 用 飞机 所 涉及 的 英 语 文本 数据 为 例 来 阐述 受控 自然 语言 在 工业 场景 中 的 作用 和 重要 性 , 并且 简要 讨论 受控 自然 语言 更为 广泛 的 意义 和 价值 , 涉及 其他 领域 包括 当前 热门 的 人工 智能 等 相关 的 课题	1<2	elab-addition	elab-addition
nlpabs12_Chi	1-30	103-119	随 着 移动 互联 网 与 社会 网络 的 深度 融合 , 基 于 位置 服务 ( Location Based Service , LBS ) 的 社交 媒体 应用 更加 流行 ,	从 LBSN 时空 数据 抽取 、 海量 时空 数据 可 视 化 等 方面 进行 综述 ,	1-45	89-180	随 着 移动 互联 网 与 社会 网络 的 深度 融合 , 基 于 位置 服务 ( Location Based Service , LBS ) 的 社交 媒体 应用 更加 流行 , 成 为 地理 社会 网络 ( Geo-Social Networks , GSN ) 的 研究 重点 。	该文 以 GSN 中 抽取 出 的 海量 时空 数据 为 分析 对象 , 从 LBSN 时空 数据 抽取 、 海量 时空 数据 可 视 化 等 方面 进行 综述 , 对 地理 社会 网络 时空 数据 交互 可 视 化 分析 技术 开展 研究 , 以期 能够 实现 比较 方便 、 快速 、 直接 地 从 地理 社会 网络 的 海量 数据 中 提取 出 有用 、 可靠 、 可 知识 化 的 综合 信息 , 并 通过 信息 可 视 化 方式 进行 直观 表达 、 展示 与 分析 。	1>2	bg-general	bg-general
nlpabs12_Chi	1-30	31-45	随 着 移动 互联 网 与 社会 网络 的 深度 融合 , 基 于 位置 服务 ( Location Based Service , LBS ) 的 社交 媒体 应用 更加 流行 ,	成 为 地理 社会 网络 ( Geo-Social Networks , GSN ) 的 研究 重点 。	1-45	1-45	随 着 移动 互联 网 与 社会 网络 的 深度 融合 , 基 于 位置 服务 ( Location Based Service , LBS ) 的 社交 媒体 应用 更加 流行 , 成 为 地理 社会 网络 ( Geo-Social Networks , GSN ) 的 研究 重点 。	随 着 移动 互联 网 与 社会 网络 的 深度 融合 , 基 于 位置 服务 ( Location Based Service , LBS ) 的 社交 媒体 应用 更加 流行 , 成 为 地理 社会 网络 ( Geo-Social Networks , GSN ) 的 研究 重点 。	1<2	joint	joint
nlpabs12_Chi	1-30	46-65	随 着 移动 互联 网 与 社会 网络 的 深度 融合 , 基 于 位置 服务 ( Location Based Service , LBS ) 的 社交 媒体 应用 更加 流行 ,	基 于 位置 信息 的 社会 网络 ( Location Based Social Network , LBSN ) 由于 具有 时空 特性 ,	1-45	46-88	随 着 移动 互联 网 与 社会 网络 的 深度 融合 , 基 于 位置 服务 ( Location Based Service , LBS ) 的 社交 媒体 应用 更加 流行 , 成 为 地理 社会 网络 ( Geo-Social Networks , GSN ) 的 研究 重点 。	基 于 位置 信息 的 社会 网络 ( Location Based Social Network , LBSN ) 由于 具有 时空 特性 , 其 海量 数据 可 视 化 不同 于 传统 信息 可 视 化 , 必须 结合 其 地理 信息 特征 进行 表达 。	1<2	elab-addition	elab-addition
nlpabs12_Chi	46-65	66-79	基 于 位置 信息 的 社会 网络 ( Location Based Social Network , LBSN ) 由于 具有 时空 特性 ,	其 海量 数据 可 视 化 不同 于 传统 信息 可 视 化 ,	46-88	46-88	基 于 位置 信息 的 社会 网络 ( Location Based Social Network , LBSN ) 由于 具有 时空 特性 , 其 海量 数据 可 视 化 不同 于 传统 信息 可 视 化 , 必须 结合 其 地理 信息 特征 进行 表达 。	基 于 位置 信息 的 社会 网络 ( Location Based Social Network , LBSN ) 由于 具有 时空 特性 , 其 海量 数据 可 视 化 不同 于 传统 信息 可 视 化 , 必须 结合 其 地理 信息 特征 进行 表达 。	1<2	result	result
nlpabs12_Chi	66-79	80-88	其 海量 数据 可 视 化 不同 于 传统 信息 可 视 化 ,	必须 结合 其 地理 信息 特征 进行 表达 。	46-88	46-88	基 于 位置 信息 的 社会 网络 ( Location Based Social Network , LBSN ) 由于 具有 时空 特性 , 其 海量 数据 可 视 化 不同 于 传统 信息 可 视 化 , 必须 结合 其 地理 信息 特征 进行 表达 。	基 于 位置 信息 的 社会 网络 ( Location Based Social Network , LBSN ) 由于 具有 时空 特性 , 其 海量 数据 可 视 化 不同 于 传统 信息 可 视 化 , 必须 结合 其 地理 信息 特征 进行 表达 。	1<2	elab-addition	elab-addition
nlpabs12_Chi	89-102	103-119	该文 以 GSN 中 抽取 出 的 海量 时空 数据 为 分析 对象 ,	从 LBSN 时空 数据 抽取 、 海量 时空 数据 可 视 化 等 方面 进行 综述 ,	89-180	89-180	该文 以 GSN 中 抽取 出 的 海量 时空 数据 为 分析 对象 , 从 LBSN 时空 数据 抽取 、 海量 时空 数据 可 视 化 等 方面 进行 综述 , 对 地理 社会 网络 时空 数据 交互 可 视 化 分析 技术 开展 研究 , 以期 能够 实现 比较 方便 、 快速 、 直接 地 从 地理 社会 网络 的 海量 数据 中 提取 出 有用 、 可靠 、 可 知识 化 的 综合 信息 , 并 通过 信息 可 视 化 方式 进行 直观 表达 、 展示 与 分析 。	该文 以 GSN 中 抽取 出 的 海量 时空 数据 为 分析 对象 , 从 LBSN 时空 数据 抽取 、 海量 时空 数据 可 视 化 等 方面 进行 综述 , 对 地理 社会 网络 时空 数据 交互 可 视 化 分析 技术 开展 研究 , 以期 能够 实现 比较 方便 、 快速 、 直接 地 从 地理 社会 网络 的 海量 数据 中 提取 出 有用 、 可靠 、 可 知识 化 的 综合 信息 , 并 通过 信息 可 视 化 方式 进行 直观 表达 、 展示 与 分析 。	1>2	bg-general	bg-general
nlpabs12_Chi	103-119	120-134	从 LBSN 时空 数据 抽取 、 海量 时空 数据 可 视 化 等 方面 进行 综述 ,	对 地理 社会 网络 时空 数据 交互 可 视 化 分析 技术 开展 研究 ,	89-180	89-180	该文 以 GSN 中 抽取 出 的 海量 时空 数据 为 分析 对象 , 从 LBSN 时空 数据 抽取 、 海量 时空 数据 可 视 化 等 方面 进行 综述 , 对 地理 社会 网络 时空 数据 交互 可 视 化 分析 技术 开展 研究 , 以期 能够 实现 比较 方便 、 快速 、 直接 地 从 地理 社会 网络 的 海量 数据 中 提取 出 有用 、 可靠 、 可 知识 化 的 综合 信息 , 并 通过 信息 可 视 化 方式 进行 直观 表达 、 展示 与 分析 。	该文 以 GSN 中 抽取 出 的 海量 时空 数据 为 分析 对象 , 从 LBSN 时空 数据 抽取 、 海量 时空 数据 可 视 化 等 方面 进行 综述 , 对 地理 社会 网络 时空 数据 交互 可 视 化 分析 技术 开展 研究 , 以期 能够 实现 比较 方便 、 快速 、 直接 地 从 地理 社会 网络 的 海量 数据 中 提取 出 有用 、 可靠 、 可 知识 化 的 综合 信息 , 并 通过 信息 可 视 化 方式 进行 直观 表达 、 展示 与 分析 。	1<2	joint	joint
nlpabs12_Chi	103-119	135-165	从 LBSN 时空 数据 抽取 、 海量 时空 数据 可 视 化 等 方面 进行 综述 ,	以期 能够 实现 比较 方便 、 快速 、 直接 地 从 地理 社会 网络 的 海量 数据 中 提取 出 有用 、 可靠 、 可 知识 化 的 综合 信息 ,	89-180	89-180	该文 以 GSN 中 抽取 出 的 海量 时空 数据 为 分析 对象 , 从 LBSN 时空 数据 抽取 、 海量 时空 数据 可 视 化 等 方面 进行 综述 , 对 地理 社会 网络 时空 数据 交互 可 视 化 分析 技术 开展 研究 , 以期 能够 实现 比较 方便 、 快速 、 直接 地 从 地理 社会 网络 的 海量 数据 中 提取 出 有用 、 可靠 、 可 知识 化 的 综合 信息 , 并 通过 信息 可 视 化 方式 进行 直观 表达 、 展示 与 分析 。	该文 以 GSN 中 抽取 出 的 海量 时空 数据 为 分析 对象 , 从 LBSN 时空 数据 抽取 、 海量 时空 数据 可 视 化 等 方面 进行 综述 , 对 地理 社会 网络 时空 数据 交互 可 视 化 分析 技术 开展 研究 , 以期 能够 实现 比较 方便 、 快速 、 直接 地 从 地理 社会 网络 的 海量 数据 中 提取 出 有用 、 可靠 、 可 知识 化 的 综合 信息 , 并 通过 信息 可 视 化 方式 进行 直观 表达 、 展示 与 分析 。	1<2	enablement	enablement
nlpabs12_Chi	135-165	166-180	以期 能够 实现 比较 方便 、 快速 、 直接 地 从 地理 社会 网络 的 海量 数据 中 提取 出 有用 、 可靠 、 可 知识 化 的 综合 信息 ,	并 通过 信息 可 视 化 方式 进行 直观 表达 、 展示 与 分析 。	89-180	89-180	该文 以 GSN 中 抽取 出 的 海量 时空 数据 为 分析 对象 , 从 LBSN 时空 数据 抽取 、 海量 时空 数据 可 视 化 等 方面 进行 综述 , 对 地理 社会 网络 时空 数据 交互 可 视 化 分析 技术 开展 研究 , 以期 能够 实现 比较 方便 、 快速 、 直接 地 从 地理 社会 网络 的 海量 数据 中 提取 出 有用 、 可靠 、 可 知识 化 的 综合 信息 , 并 通过 信息 可 视 化 方式 进行 直观 表达 、 展示 与 分析 。	该文 以 GSN 中 抽取 出 的 海量 时空 数据 为 分析 对象 , 从 LBSN 时空 数据 抽取 、 海量 时空 数据 可 视 化 等 方面 进行 综述 , 对 地理 社会 网络 时空 数据 交互 可 视 化 分析 技术 开展 研究 , 以期 能够 实现 比较 方便 、 快速 、 直接 地 从 地理 社会 网络 的 海量 数据 中 提取 出 有用 、 可靠 、 可 知识 化 的 综合 信息 , 并 通过 信息 可 视 化 方式 进行 直观 表达 、 展示 与 分析 。	1<2	joint	joint
nlpabs13_Chi	1-10	11-23	该文 吸收 已 有 动词 研究 的 相关 成果 ,	提出 了 动词 语义 词典 开发 的 相关 原则 和 研制 思路 ,	1-55	1-55	该文 吸收 已 有 动词 研究 的 相关 成果 , 提出 了 动词 语义 词典 开发 的 相关 原则 和 研制 思路 , 界定 并 描写 了 词典 中 所 涉及 的 相关 属性 信息 , 并 对 词典 的 总体 文件 结构 及 其 各个 库 的 信息 进行 了 描写 和 说明 。	该文 吸收 已 有 动词 研究 的 相关 成果 , 提出 了 动词 语义 词典 开发 的 相关 原则 和 研制 思路 , 界定 并 描写 了 词典 中 所 涉及 的 相关 属性 信息 , 并 对 词典 的 总体 文件 结构 及 其 各个 库 的 信息 进行 了 描写 和 说明 。	1>2	bg-general	bg-general
nlpabs13_Chi	11-23	24-36	提出 了 动词 语义 词典 开发 的 相关 原则 和 研制 思路 ,	界定 并 描写 了 词典 中 所 涉及 的 相关 属性 信息 ,	1-55	1-55	该文 吸收 已 有 动词 研究 的 相关 成果 , 提出 了 动词 语义 词典 开发 的 相关 原则 和 研制 思路 , 界定 并 描写 了 词典 中 所 涉及 的 相关 属性 信息 , 并 对 词典 的 总体 文件 结构 及 其 各个 库 的 信息 进行 了 描写 和 说明 。	该文 吸收 已 有 动词 研究 的 相关 成果 , 提出 了 动词 语义 词典 开发 的 相关 原则 和 研制 思路 , 界定 并 描写 了 词典 中 所 涉及 的 相关 属性 信息 , 并 对 词典 的 总体 文件 结构 及 其 各个 库 的 信息 进行 了 描写 和 说明 。	1<2	elab-addition	elab-addition
nlpabs13_Chi	24-36	37-55	界定 并 描写 了 词典 中 所 涉及 的 相关 属性 信息 ,	并 对 词典 的 总体 文件 结构 及 其 各个 库 的 信息 进行 了 描写 和 说明 。	1-55	1-55	该文 吸收 已 有 动词 研究 的 相关 成果 , 提出 了 动词 语义 词典 开发 的 相关 原则 和 研制 思路 , 界定 并 描写 了 词典 中 所 涉及 的 相关 属性 信息 , 并 对 词典 的 总体 文件 结构 及 其 各个 库 的 信息 进行 了 描写 和 说明 。	该文 吸收 已 有 动词 研究 的 相关 成果 , 提出 了 动词 语义 词典 开发 的 相关 原则 和 研制 思路 , 界定 并 描写 了 词典 中 所 涉及 的 相关 属性 信息 , 并 对 词典 的 总体 文件 结构 及 其 各个 库 的 信息 进行 了 描写 和 说明 。	1<2	joint	joint
nlpabs13_Chi	11-23	56-100	提出 了 动词 语义 词典 开发 的 相关 原则 和 研制 思路 ,	最终 开发 了 融合 词汇 语义 和 句法 语义 , 涵盖 词形 、 词性 、 释义 、 义类 、 义场 、 句法 范畴 信息 、 语义 范畴 信息 、 语义 句模 等 多 种 信息 参数 的 开放 性 的 动词 语义 知识 词典 。	1-55	56-100	该文 吸收 已 有 动词 研究 的 相关 成果 , 提出 了 动词 语义 词典 开发 的 相关 原则 和 研制 思路 , 界定 并 描写 了 词典 中 所 涉及 的 相关 属性 信息 , 并 对 词典 的 总体 文件 结构 及 其 各个 库 的 信息 进行 了 描写 和 说明 。	最终 开发 了 融合 词汇 语义 和 句法 语义 , 涵盖 词形 、 词性 、 释义 、 义类 、 义场 、 句法 范畴 信息 、 语义 范畴 信息 、 语义 句模 等 多 种 信息 参数 的 开放 性 的 动词 语义 知识 词典 。	1<2	enablement	enablement
nlpabs13_Chi	56-100	101-123	最终 开发 了 融合 词汇 语义 和 句法 语义 , 涵盖 词形 、 词性 、 释义 、 义类 、 义场 、 句法 范畴 信息 、 语义 范畴 信息 、 语义 句模 等 多 种 信息 参数 的 开放 性 的 动词 语义 知识 词典 。	该 词典 可以 在 歧义 分化 、 词义 关系 考察 、 句法 — 语义 接口 、 句模 抽取 等 方面 提供 支持 。	56-100	101-123	最终 开发 了 融合 词汇 语义 和 句法 语义 , 涵盖 词形 、 词性 、 释义 、 义类 、 义场 、 句法 范畴 信息 、 语义 范畴 信息 、 语义 句模 等 多 种 信息 参数 的 开放 性 的 动词 语义 知识 词典 。	该 词典 可以 在 歧义 分化 、 词义 关系 考察 、 句法 — 语义 接口 、 句模 抽取 等 方面 提供 支持 。	1<2	elab-addition	elab-addition
nlpabs14_Chi	1-29	90-102	近 十 年 来 , 依存 句法 分析 由于 具有 表示 形式 简单 、 灵活 、 分析 效率 高 等 特点 , 得到 了 学术 界 广泛 关注 。	为 此 , 该文 充分 参考 了 已有 的 数据 标注 工作 ,	1-29	90-132	近 十 年 来 , 依存 句法 分析 由于 具有 表示 形式 简单 、 灵活 、 分析 效率 高 等 特点 , 得到 了 学术 界 广泛 关注 。	为 此 , 该文 充分 参考 了 已有 的 数据 标注 工作 , 同时 结合 实际 标注 中 遇到 的 问题 , 制定 了 一 个 新 的 适应 多 领域 多来源 文本 的 汉 语 依 存句 法 数据 标注 规范 。	1>2	bg-general	bg-general
nlpabs14_Chi	1-29	30-51	近 十 年 来 , 依存 句法 分析 由于 具有 表示 形式 简单 、 灵活 、 分析 效率 高 等 特点 , 得到 了 学术 界 广泛 关注 。	为了 支持 汉 语 依存 句法 分析 研究 , 国内 同行 分别 标注 了 几 个 汉 语 依存 句法 树库 。	1-29	30-51	近 十 年 来 , 依存 句法 分析 由于 具有 表示 形式 简单 、 灵活 、 分析 效率 高 等 特点 , 得到 了 学术 界 广泛 关注 。	为了 支持 汉 语 依存 句法 分析 研究 , 国内 同行 分别 标注 了 几 个 汉 语 依存 句法 树库 。	1<2	elab-addition	elab-addition
nlpabs14_Chi	30-51	52-72	为了 支持 汉 语 依存 句法 分析 研究 , 国内 同行 分别 标注 了 几 个 汉 语 依存 句法 树库 。	然而 , 目前 还 没有 一 个 公开 、 完整 、 系统 的 汉 语 依 存句法 数据 标注 规范 ,	30-51	52-89	为了 支持 汉 语 依存 句法 分析 研究 , 国内 同行 分别 标注 了 几 个 汉 语 依存 句法 树库 。	然而 , 目前 还 没有 一 个 公开 、 完整 、 系统 的 汉 语 依 存句法 数据 标注 规范 , 并且 已有 的 树库 标注 工作 对 网络 文本 中 的 特殊 语言 现象 考虑 较少 。	1<2	contrast	contrast
nlpabs14_Chi	52-72	73-89	然而 , 目前 还 没有 一 个 公开 、 完整 、 系统 的 汉 语 依 存句法 数据 标注 规范 ,	并且 已有 的 树库 标注 工作 对 网络 文本 中 的 特殊 语言 现象 考虑 较少 。	52-89	52-89	然而 , 目前 还 没有 一 个 公开 、 完整 、 系统 的 汉 语 依 存句法 数据 标注 规范 , 并且 已有 的 树库 标注 工作 对 网络 文本 中 的 特殊 语言 现象 考虑 较少 。	然而 , 目前 还 没有 一 个 公开 、 完整 、 系统 的 汉 语 依 存句法 数据 标注 规范 , 并且 已有 的 树库 标注 工作 对 网络 文本 中 的 特殊 语言 现象 考虑 较少 。	1<2	joint	joint
nlpabs14_Chi	90-102	112-132	为 此 , 该文 充分 参考 了 已有 的 数据 标注 工作 ,	制定 了 一 个 新 的 适应 多 领域 多来源 文本 的 汉 语 依 存句 法 数据 标注 规范 。	90-132	90-132	为 此 , 该文 充分 参考 了 已有 的 数据 标注 工作 , 同时 结合 实际 标注 中 遇到 的 问题 , 制定 了 一 个 新 的 适应 多 领域 多来源 文本 的 汉 语 依 存句 法 数据 标注 规范 。	为 此 , 该文 充分 参考 了 已有 的 数据 标注 工作 , 同时 结合 实际 标注 中 遇到 的 问题 , 制定 了 一 个 新 的 适应 多 领域 多来源 文本 的 汉 语 依 存句 法 数据 标注 规范 。	1>2	manner-means	manner-means
nlpabs14_Chi	90-102	103-111	为 此 , 该文 充分 参考 了 已有 的 数据 标注 工作 ,	同时 结合 实际 标注 中 遇到 的 问题 ,	90-132	90-132	为 此 , 该文 充分 参考 了 已有 的 数据 标注 工作 , 同时 结合 实际 标注 中 遇到 的 问题 , 制定 了 一 个 新 的 适应 多 领域 多来源 文本 的 汉 语 依 存句 法 数据 标注 规范 。	为 此 , 该文 充分 参考 了 已有 的 数据 标注 工作 , 同时 结合 实际 标注 中 遇到 的 问题 , 制定 了 一 个 新 的 适应 多 领域 多来源 文本 的 汉 语 依 存句 法 数据 标注 规范 。	1<2	joint	joint
nlpabs14_Chi	112-132	133-153	制定 了 一 个 新 的 适应 多 领域 多来源 文本 的 汉 语 依 存句 法 数据 标注 规范 。	我们 制定 规范 的 目标 是 准确 刻画 各种 语言 现象 的 句法 结构 , 同时 保证 标注 一致 性 。	90-132	133-153	为 此 , 该文 充分 参考 了 已有 的 数据 标注 工作 , 同时 结合 实际 标注 中 遇到 的 问题 , 制定 了 一 个 新 的 适应 多 领域 多来源 文本 的 汉 语 依 存句 法 数据 标注 规范 。	我们 制定 规范 的 目标 是 准确 刻画 各种 语言 现象 的 句法 结构 , 同时 保证 标注 一致 性 。	1<2	bg-goal	bg-goal
nlpabs14_Chi	154-157	158-171	利用 此 规范 ,	我们 已经 标注 了 约 3万 句 汉 语 依存 句法 树 库 。	154-171	154-171	利用 此 规范 , 我们 已经 标注 了 约 3万 句 汉 语 依存 句法 树 库 。	利用 此 规范 , 我们 已经 标注 了 约 3万 句 汉 语 依存 句法 树 库 。	1>2	manner-means	manner-means
nlpabs14_Chi	112-132	158-171	制定 了 一 个 新 的 适应 多 领域 多来源 文本 的 汉 语 依 存句 法 数据 标注 规范 。	我们 已经 标注 了 约 3万 句 汉 语 依存 句法 树 库 。	90-132	154-171	为 此 , 该文 充分 参考 了 已有 的 数据 标注 工作 , 同时 结合 实际 标注 中 遇到 的 问题 , 制定 了 一 个 新 的 适应 多 领域 多来源 文本 的 汉 语 依 存句 法 数据 标注 规范 。	利用 此 规范 , 我们 已经 标注 了 约 3万 句 汉 语 依存 句法 树 库 。	1<2	elab-addition	elab-addition
nlpabs15_Chi	1-21	126-145	基 于 注意 力 机 制 的 神经 网络 机器 翻译 模型 已经 成 为 目前 主流 的 翻译 模型 ,	该文 使用 了 一 种 简单 循环 单元 ( sim ple recurrent unit , SRU ) 代替 GRU 单元 ,	1-50	126-168	基 于 注意 力 机 制 的 神经 网络 机器 翻译 模型 已经 成 为 目前 主流 的 翻译 模型 , 在 许多 翻译 方向 上 均 超过 了 统计 机器 翻译 模型 , 尤其 是 在 训练 语料 规模 比 较大 的 情况 下 , 优势 更加 明显 。	该文 使用 了 一 种 简单 循环 单元 ( sim ple recurrent unit , SRU ) 代替 GRU 单元 , 通过 堆叠 网络 层数 加深 编码 器 和 解码 器 的 结构 , 提高 了 神经 网络 机器 翻译 模型 的 性能 。	1>2	bg-compare	bg-compare
nlpabs15_Chi	1-21	22-50	基 于 注意 力 机 制 的 神经 网络 机器 翻译 模型 已经 成 为 目前 主流 的 翻译 模型 ,	在 许多 翻译 方向 上 均 超过 了 统计 机器 翻译 模型 , 尤其 是 在 训练 语料 规模 比 较大 的 情况 下 , 优势 更加 明显 。	1-50	1-50	基 于 注意 力 机 制 的 神经 网络 机器 翻译 模型 已经 成 为 目前 主流 的 翻译 模型 , 在 许多 翻译 方向 上 均 超过 了 统计 机器 翻译 模型 , 尤其 是 在 训练 语料 规模 比 较大 的 情况 下 , 优势 更加 明显 。	基 于 注意 力 机 制 的 神经 网络 机器 翻译 模型 已经 成 为 目前 主流 的 翻译 模型 , 在 许多 翻译 方向 上 均 超过 了 统计 机器 翻译 模型 , 尤其 是 在 训练 语料 规模 比 较大 的 情况 下 , 优势 更加 明显 。	1<2	elab-addition	elab-addition
nlpabs15_Chi	1-21	51-60	基 于 注意 力 机 制 的 神经 网络 机器 翻译 模型 已经 成 为 目前 主流 的 翻译 模型 ,	该 模型 使用 编码 器 — 解码 器 框架 ,	1-50	51-72	基 于 注意 力 机 制 的 神经 网络 机器 翻译 模型 已经 成 为 目前 主流 的 翻译 模型 , 在 许多 翻译 方向 上 均 超过 了 统计 机器 翻译 模型 , 尤其 是 在 训练 语料 规模 比 较大 的 情况 下 , 优势 更加 明显 。	该 模型 使用 编码 器 — 解码 器 框架 , 将 翻译 任务 建模 成 序 列 到 序列 的 问题 。	1<2	elab-addition	elab-addition
nlpabs15_Chi	51-60	61-72	该 模型 使用 编码 器 — 解码 器 框架 ,	将 翻译 任务 建模 成 序 列 到 序列 的 问题 。	51-72	51-72	该 模型 使用 编码 器 — 解码 器 框架 , 将 翻译 任务 建模 成 序 列 到 序列 的 问题 。	该 模型 使用 编码 器 — 解码 器 框架 , 将 翻译 任务 建模 成 序 列 到 序列 的 问题 。	1<2	enablement	enablement
nlpabs15_Chi	1-21	73-114	基 于 注意 力 机 制 的 神经 网络 机器 翻译 模型 已经 成 为 目前 主流 的 翻译 模型 ,	然而 , 在 基 于 门 控 循环 单元 ( gated recurren t unit , GRU ) 的 编码 器 — 解码 器 模型 中 , 随 着 模型 层数 的 增加 , 梯度 消失 的 问题 使 模型 难 以 收敛	1-50	73-125	基 于 注意 力 机 制 的 神经 网络 机器 翻译 模型 已经 成 为 目前 主流 的 翻译 模型 , 在 许多 翻译 方向 上 均 超过 了 统计 机器 翻译 模型 , 尤其 是 在 训练 语料 规模 比 较大 的 情况 下 , 优势 更加 明显 。	然而 , 在 基 于 门 控 循环 单元 ( gated recurren t unit , GRU ) 的 编码 器 — 解码 器 模型 中 , 随 着 模型 层数 的 增加 , 梯度 消失 的 问题 使 模型 难 以 收敛 并且 严重 退化 , 进而 使 翻译 性 能 下降 。	1<2	elab-addition	elab-addition
nlpabs15_Chi	73-114	115-118	然而 , 在 基 于 门 控 循环 单元 ( gated recurren t unit , GRU ) 的 编码 器 — 解码 器 模型 中 , 随 着 模型 层数 的 增加 , 梯度 消失 的 问题 使 模型 难 以 收敛	并且 严重 退化 ,	73-125	73-125	然而 , 在 基 于 门 控 循环 单元 ( gated recurren t unit , GRU ) 的 编码 器 — 解码 器 模型 中 , 随 着 模型 层数 的 增加 , 梯度 消失 的 问题 使 模型 难 以 收敛 并且 严重 退化 , 进而 使 翻译 性 能 下降 。	然而 , 在 基 于 门 控 循环 单元 ( gated recurren t unit , GRU ) 的 编码 器 — 解码 器 模型 中 , 随 着 模型 层数 的 增加 , 梯度 消失 的 问题 使 模型 难 以 收敛 并且 严重 退化 , 进而 使 翻译 性 能 下降 。	1<2	joint	joint
nlpabs15_Chi	73-114	119-125	然而 , 在 基 于 门 控 循环 单元 ( gated recurren t unit , GRU ) 的 编码 器 — 解码 器 模型 中 , 随 着 模型 层数 的 增加 , 梯度 消失 的 问题 使 模型 难 以 收敛	进而 使 翻译 性 能 下降 。	73-125	73-125	然而 , 在 基 于 门 控 循环 单元 ( gated recurren t unit , GRU ) 的 编码 器 — 解码 器 模型 中 , 随 着 模型 层数 的 增加 , 梯度 消失 的 问题 使 模型 难 以 收敛 并且 严重 退化 , 进而 使 翻译 性 能 下降 。	然而 , 在 基 于 门 控 循环 单元 ( gated recurren t unit , GRU ) 的 编码 器 — 解码 器 模型 中 , 随 着 模型 层数 的 增加 , 梯度 消失 的 问题 使 模型 难 以 收敛 并且 严重 退化 , 进而 使 翻译 性 能 下降 。	1<2	elab-addition	elab-addition
nlpabs15_Chi	126-145	146-168	该文 使用 了 一 种 简单 循环 单元 ( sim ple recurrent unit , SRU ) 代替 GRU 单元 ,	通过 堆叠 网络 层数 加深 编码 器 和 解码 器 的 结构 , 提高 了 神经 网络 机器 翻译 模型 的 性能 。	126-168	126-168	该文 使用 了 一 种 简单 循环 单元 ( sim ple recurrent unit , SRU ) 代替 GRU 单元 , 通过 堆叠 网络 层数 加深 编码 器 和 解码 器 的 结构 , 提高 了 神经 网络 机器 翻译 模型 的 性能 。	该文 使用 了 一 种 简单 循环 单元 ( sim ple recurrent unit , SRU ) 代替 GRU 单元 , 通过 堆叠 网络 层数 加深 编码 器 和 解码 器 的 结构 , 提高 了 神经 网络 机器 翻译 模型 的 性能 。	1<2	elab-addition	elab-addition
nlpabs15_Chi	126-145	169-188	该文 使用 了 一 种 简单 循环 单元 ( sim ple recurrent unit , SRU ) 代替 GRU 单元 ,	我们 在 德 语 — 英 语 和 维 语 — 汉 语 翻译 任务 上 进行 了 实验 ,	126-168	169-237	该文 使用 了 一 种 简单 循环 单元 ( sim ple recurrent unit , SRU ) 代替 GRU 单元 , 通过 堆叠 网络 层数 加深 编码 器 和 解码 器 的 结构 , 提高 了 神经 网络 机器 翻译 模型 的 性能 。	我们 在 德 语 — 英 语 和 维 语 — 汉 语 翻译 任务 上 进行 了 实验 , 实验 结果 表明 , 在 神经 网络 机器 翻译 模型 中 使用 SRU 单元 , 可以 有效 地 解决 梯度 消失 带来 的 模型 难 以 训练 的 问题 ; 通过 加深 模型 能够 显著 地 提升 系统 的 翻译 性能 , 同时 保证 训练 速度 基本 不变 。	1<2	evaluation	evaluation
nlpabs15_Chi	189-192	193-218	实验 结果 表明 ,	在 神经 网络 机器 翻译 模型 中 使用 SRU 单元 , 可以 有效 地 解决 梯度 消失 带来 的 模型 难 以 训练 的 问题 ;	169-237	169-237	我们 在 德 语 — 英 语 和 维 语 — 汉 语 翻译 任务 上 进行 了 实验 , 实验 结果 表明 , 在 神经 网络 机器 翻译 模型 中 使用 SRU 单元 , 可以 有效 地 解决 梯度 消失 带来 的 模型 难 以 训练 的 问题 ; 通过 加深 模型 能够 显著 地 提升 系统 的 翻译 性能 , 同时 保证 训练 速度 基本 不变 。	我们 在 德 语 — 英 语 和 维 语 — 汉 语 翻译 任务 上 进行 了 实验 , 实验 结果 表明 , 在 神经 网络 机器 翻译 模型 中 使用 SRU 单元 , 可以 有效 地 解决 梯度 消失 带来 的 模型 难 以 训练 的 问题 ; 通过 加深 模型 能够 显著 地 提升 系统 的 翻译 性能 , 同时 保证 训练 速度 基本 不变 。	1>2	attribution	attribution
nlpabs15_Chi	169-188	193-218	我们 在 德 语 — 英 语 和 维 语 — 汉 语 翻译 任务 上 进行 了 实验 ,	在 神经 网络 机器 翻译 模型 中 使用 SRU 单元 , 可以 有效 地 解决 梯度 消失 带来 的 模型 难 以 训练 的 问题 ;	169-237	169-237	我们 在 德 语 — 英 语 和 维 语 — 汉 语 翻译 任务 上 进行 了 实验 , 实验 结果 表明 , 在 神经 网络 机器 翻译 模型 中 使用 SRU 单元 , 可以 有效 地 解决 梯度 消失 带来 的 模型 难 以 训练 的 问题 ; 通过 加深 模型 能够 显著 地 提升 系统 的 翻译 性能 , 同时 保证 训练 速度 基本 不变 。	我们 在 德 语 — 英 语 和 维 语 — 汉 语 翻译 任务 上 进行 了 实验 , 实验 结果 表明 , 在 神经 网络 机器 翻译 模型 中 使用 SRU 单元 , 可以 有效 地 解决 梯度 消失 带来 的 模型 难 以 训练 的 问题 ; 通过 加深 模型 能够 显著 地 提升 系统 的 翻译 性能 , 同时 保证 训练 速度 基本 不变 。	1<2	progression	progression
nlpabs15_Chi	193-218	219-230	在 神经 网络 机器 翻译 模型 中 使用 SRU 单元 , 可以 有效 地 解决 梯度 消失 带来 的 模型 难 以 训练 的 问题 ;	通过 加深 模型 能够 显著 地 提升 系统 的 翻译 性能 ,	169-237	169-237	我们 在 德 语 — 英 语 和 维 语 — 汉 语 翻译 任务 上 进行 了 实验 , 实验 结果 表明 , 在 神经 网络 机器 翻译 模型 中 使用 SRU 单元 , 可以 有效 地 解决 梯度 消失 带来 的 模型 难 以 训练 的 问题 ; 通过 加深 模型 能够 显著 地 提升 系统 的 翻译 性能 , 同时 保证 训练 速度 基本 不变 。	我们 在 德 语 — 英 语 和 维 语 — 汉 语 翻译 任务 上 进行 了 实验 , 实验 结果 表明 , 在 神经 网络 机器 翻译 模型 中 使用 SRU 单元 , 可以 有效 地 解决 梯度 消失 带来 的 模型 难 以 训练 的 问题 ; 通过 加深 模型 能够 显著 地 提升 系统 的 翻译 性能 , 同时 保证 训练 速度 基本 不变 。	1<2	joint	joint
nlpabs15_Chi	219-230	231-237	通过 加深 模型 能够 显著 地 提升 系统 的 翻译 性能 ,	同时 保证 训练 速度 基本 不变 。	169-237	169-237	我们 在 德 语 — 英 语 和 维 语 — 汉 语 翻译 任务 上 进行 了 实验 , 实验 结果 表明 , 在 神经 网络 机器 翻译 模型 中 使用 SRU 单元 , 可以 有效 地 解决 梯度 消失 带来 的 模型 难 以 训练 的 问题 ; 通过 加深 模型 能够 显著 地 提升 系统 的 翻译 性能 , 同时 保证 训练 速度 基本 不变 。	我们 在 德 语 — 英 语 和 维 语 — 汉 语 翻译 任务 上 进行 了 实验 , 实验 结果 表明 , 在 神经 网络 机器 翻译 模型 中 使用 SRU 单元 , 可以 有效 地 解决 梯度 消失 带来 的 模型 难 以 训练 的 问题 ; 通过 加深 模型 能够 显著 地 提升 系统 的 翻译 性能 , 同时 保证 训练 速度 基本 不变 。	1<2	joint	joint
nlpabs15_Chi	169-188	238-261	我们 在 德 语 — 英 语 和 维 语 — 汉 语 翻译 任务 上 进行 了 实验 ,	此外 , 我们 还 与 基 于 残差 连接 ( residual connections ) 的 神经 网络 机器 翻译 模型 进行 了 实验 对比 ,	169-237	238-273	我们 在 德 语 — 英 语 和 维 语 — 汉 语 翻译 任务 上 进行 了 实验 , 实验 结果 表明 , 在 神经 网络 机器 翻译 模型 中 使用 SRU 单元 , 可以 有效 地 解决 梯度 消失 带来 的 模型 难 以 训练 的 问题 ; 通过 加深 模型 能够 显著 地 提升 系统 的 翻译 性能 , 同时 保证 训练 速度 基本 不变 。	此外 , 我们 还 与 基 于 残差 连接 ( residual connections ) 的 神经 网络 机器 翻译 模型 进行 了 实验 对比 , 实验 结果 表明 , 我们 的 模型 有 显著 性 优势 。	1<2	progression	progression
nlpabs15_Chi	262-265	266-273	实验 结果 表明 ,	我们 的 模型 有 显著 性 优势 。	238-273	238-273	此外 , 我们 还 与 基 于 残差 连接 ( residual connections ) 的 神经 网络 机器 翻译 模型 进行 了 实验 对比 , 实验 结果 表明 , 我们 的 模型 有 显著 性 优势 。	此外 , 我们 还 与 基 于 残差 连接 ( residual connections ) 的 神经 网络 机器 翻译 模型 进行 了 实验 对比 , 实验 结果 表明 , 我们 的 模型 有 显著 性 优势 。	1>2	attribution	attribution
nlpabs15_Chi	238-261	266-273	此外 , 我们 还 与 基 于 残差 连接 ( residual connections ) 的 神经 网络 机器 翻译 模型 进行 了 实验 对比 ,	我们 的 模型 有 显著 性 优势 。	238-273	238-273	此外 , 我们 还 与 基 于 残差 连接 ( residual connections ) 的 神经 网络 机器 翻译 模型 进行 了 实验 对比 , 实验 结果 表明 , 我们 的 模型 有 显著 性 优势 。	此外 , 我们 还 与 基 于 残差 连接 ( residual connections ) 的 神经 网络 机器 翻译 模型 进行 了 实验 对比 , 实验 结果 表明 , 我们 的 模型 有 显著 性 优势 。	1<2	evaluation	evaluation
nlpabs16_Chi	1-22	87-105	复杂 网络 具有 自 组织 、 自 相似 、 吸引子 、 小 世界 、 无 标度 中 部分 或 全部 性质 ,	分析 了 藏 文 字 同 现 网络 的 最短 路径 长度 、 聚类 系数 和 度 分布 ,	1-43	44-142	复杂 网络 具有 自 组织 、 自 相似 、 吸引子 、 小 世界 、 无 标度 中 部分 或 全部 性质 , 而 语言 文字 作 为 人类 智慧 和 文明 的 结晶 , 是 经过 漫长 演化 形成 的 复杂 网络 。	该文 对 藏 语 诗歌 、 散文 、 政治 、 佛教 、 教材 和 口语 等 六 类 具有 代表 性 的 体裁 语料 , 每类 各 取 15 篇 共 90 篇 文章 构建 了 97 个 藏 文 字同现 网络 , 分析 了 藏 文 字 同 现 网络 的 最短 路径 长度 、 聚类 系数 和 度 分布 , 实验 数据 显示 97 个 藏 文字 同 现 网络 都 具有 小 世界 效应 和 无 标度 特性 , 表明 藏 文 字 同 现 网络 都 具有 小 世界 效应 和 无 标度 特性 。	1>2	bg-general	bg-general
nlpabs16_Chi	1-22	23-34	复杂 网络 具有 自 组织 、 自 相似 、 吸引子 、 小 世界 、 无 标度 中 部分 或 全部 性质 ,	而 语言 文字 作 为 人类 智慧 和 文明 的 结晶 ,	1-43	1-43	复杂 网络 具有 自 组织 、 自 相似 、 吸引子 、 小 世界 、 无 标度 中 部分 或 全部 性质 , 而 语言 文字 作 为 人类 智慧 和 文明 的 结晶 , 是 经过 漫长 演化 形成 的 复杂 网络 。	复杂 网络 具有 自 组织 、 自 相似 、 吸引子 、 小 世界 、 无 标度 中 部分 或 全部 性质 , 而 语言 文字 作 为 人类 智慧 和 文明 的 结晶 , 是 经过 漫长 演化 形成 的 复杂 网络 。	1<2	elab-addition	elab-addition
nlpabs16_Chi	23-34	35-43	而 语言 文字 作 为 人类 智慧 和 文明 的 结晶 ,	是 经过 漫长 演化 形成 的 复杂 网络 。	1-43	1-43	复杂 网络 具有 自 组织 、 自 相似 、 吸引子 、 小 世界 、 无 标度 中 部分 或 全部 性质 , 而 语言 文字 作 为 人类 智慧 和 文明 的 结晶 , 是 经过 漫长 演化 形成 的 复杂 网络 。	复杂 网络 具有 自 组织 、 自 相似 、 吸引子 、 小 世界 、 无 标度 中 部分 或 全部 性质 , 而 语言 文字 作 为 人类 智慧 和 文明 的 结晶 , 是 经过 漫长 演化 形成 的 复杂 网络 。	1<2	elab-addition	elab-addition
nlpabs16_Chi	44-86	87-105	该文 对 藏 语 诗歌 、 散文 、 政治 、 佛教 、 教材 和 口语 等 六 类 具有 代表 性 的 体裁 语料 , 每类 各 取 15 篇 共 90 篇 文章 构建 了 97 个 藏 文 字同现 网络 ,	分析 了 藏 文 字 同 现 网络 的 最短 路径 长度 、 聚类 系数 和 度 分布 ,	44-142	44-142	该文 对 藏 语 诗歌 、 散文 、 政治 、 佛教 、 教材 和 口语 等 六 类 具有 代表 性 的 体裁 语料 , 每类 各 取 15 篇 共 90 篇 文章 构建 了 97 个 藏 文 字同现 网络 , 分析 了 藏 文 字 同 现 网络 的 最短 路径 长度 、 聚类 系数 和 度 分布 , 实验 数据 显示 97 个 藏 文字 同 现 网络 都 具有 小 世界 效应 和 无 标度 特性 , 表明 藏 文 字 同 现 网络 都 具有 小 世界 效应 和 无 标度 特性 。	该文 对 藏 语 诗歌 、 散文 、 政治 、 佛教 、 教材 和 口语 等 六 类 具有 代表 性 的 体裁 语料 , 每类 各 取 15 篇 共 90 篇 文章 构建 了 97 个 藏 文 字同现 网络 , 分析 了 藏 文 字 同 现 网络 的 最短 路径 长度 、 聚类 系数 和 度 分布 , 实验 数据 显示 97 个 藏 文字 同 现 网络 都 具有 小 世界 效应 和 无 标度 特性 , 表明 藏 文 字 同 现 网络 都 具有 小 世界 效应 和 无 标度 特性 。	1>2	manner-means	manner-means
nlpabs16_Chi	106-108	109-125	实验 数据 显示	97 个 藏 文字 同 现 网络 都 具有 小 世界 效应 和 无 标度 特性 ,	44-142	44-142	该文 对 藏 语 诗歌 、 散文 、 政治 、 佛教 、 教材 和 口语 等 六 类 具有 代表 性 的 体裁 语料 , 每类 各 取 15 篇 共 90 篇 文章 构建 了 97 个 藏 文 字同现 网络 , 分析 了 藏 文 字 同 现 网络 的 最短 路径 长度 、 聚类 系数 和 度 分布 , 实验 数据 显示 97 个 藏 文字 同 现 网络 都 具有 小 世界 效应 和 无 标度 特性 , 表明 藏 文 字 同 现 网络 都 具有 小 世界 效应 和 无 标度 特性 。	该文 对 藏 语 诗歌 、 散文 、 政治 、 佛教 、 教材 和 口语 等 六 类 具有 代表 性 的 体裁 语料 , 每类 各 取 15 篇 共 90 篇 文章 构建 了 97 个 藏 文 字同现 网络 , 分析 了 藏 文 字 同 现 网络 的 最短 路径 长度 、 聚类 系数 和 度 分布 , 实验 数据 显示 97 个 藏 文字 同 现 网络 都 具有 小 世界 效应 和 无 标度 特性 , 表明 藏 文 字 同 现 网络 都 具有 小 世界 效应 和 无 标度 特性 。	1>2	attribution	attribution
nlpabs16_Chi	87-105	109-125	分析 了 藏 文 字 同 现 网络 的 最短 路径 长度 、 聚类 系数 和 度 分布 ,	97 个 藏 文字 同 现 网络 都 具有 小 世界 效应 和 无 标度 特性 ,	44-142	44-142	该文 对 藏 语 诗歌 、 散文 、 政治 、 佛教 、 教材 和 口语 等 六 类 具有 代表 性 的 体裁 语料 , 每类 各 取 15 篇 共 90 篇 文章 构建 了 97 个 藏 文 字同现 网络 , 分析 了 藏 文 字 同 现 网络 的 最短 路径 长度 、 聚类 系数 和 度 分布 , 实验 数据 显示 97 个 藏 文字 同 现 网络 都 具有 小 世界 效应 和 无 标度 特性 , 表明 藏 文 字 同 现 网络 都 具有 小 世界 效应 和 无 标度 特性 。	该文 对 藏 语 诗歌 、 散文 、 政治 、 佛教 、 教材 和 口语 等 六 类 具有 代表 性 的 体裁 语料 , 每类 各 取 15 篇 共 90 篇 文章 构建 了 97 个 藏 文 字同现 网络 , 分析 了 藏 文 字 同 现 网络 的 最短 路径 长度 、 聚类 系数 和 度 分布 , 实验 数据 显示 97 个 藏 文字 同 现 网络 都 具有 小 世界 效应 和 无 标度 特性 , 表明 藏 文 字 同 现 网络 都 具有 小 世界 效应 和 无 标度 特性 。	1<2	elab-addition	elab-addition
nlpabs16_Chi	126	127-142	表明	藏 文 字 同 现 网络 都 具有 小 世界 效应 和 无 标度 特性 。	44-142	44-142	该文 对 藏 语 诗歌 、 散文 、 政治 、 佛教 、 教材 和 口语 等 六 类 具有 代表 性 的 体裁 语料 , 每类 各 取 15 篇 共 90 篇 文章 构建 了 97 个 藏 文 字同现 网络 , 分析 了 藏 文 字 同 现 网络 的 最短 路径 长度 、 聚类 系数 和 度 分布 , 实验 数据 显示 97 个 藏 文字 同 现 网络 都 具有 小 世界 效应 和 无 标度 特性 , 表明 藏 文 字 同 现 网络 都 具有 小 世界 效应 和 无 标度 特性 。	该文 对 藏 语 诗歌 、 散文 、 政治 、 佛教 、 教材 和 口语 等 六 类 具有 代表 性 的 体裁 语料 , 每类 各 取 15 篇 共 90 篇 文章 构建 了 97 个 藏 文 字同现 网络 , 分析 了 藏 文 字 同 现 网络 的 最短 路径 长度 、 聚类 系数 和 度 分布 , 实验 数据 显示 97 个 藏 文字 同 现 网络 都 具有 小 世界 效应 和 无 标度 特性 , 表明 藏 文 字 同 现 网络 都 具有 小 世界 效应 和 无 标度 特性 。	1>2	attribution	attribution
nlpabs16_Chi	109-125	127-142	97 个 藏 文字 同 现 网络 都 具有 小 世界 效应 和 无 标度 特性 ,	藏 文 字 同 现 网络 都 具有 小 世界 效应 和 无 标度 特性 。	44-142	44-142	该文 对 藏 语 诗歌 、 散文 、 政治 、 佛教 、 教材 和 口语 等 六 类 具有 代表 性 的 体裁 语料 , 每类 各 取 15 篇 共 90 篇 文章 构建 了 97 个 藏 文 字同现 网络 , 分析 了 藏 文 字 同 现 网络 的 最短 路径 长度 、 聚类 系数 和 度 分布 , 实验 数据 显示 97 个 藏 文字 同 现 网络 都 具有 小 世界 效应 和 无 标度 特性 , 表明 藏 文 字 同 现 网络 都 具有 小 世界 效应 和 无 标度 特性 。	该文 对 藏 语 诗歌 、 散文 、 政治 、 佛教 、 教材 和 口语 等 六 类 具有 代表 性 的 体裁 语料 , 每类 各 取 15 篇 共 90 篇 文章 构建 了 97 个 藏 文 字同现 网络 , 分析 了 藏 文 字 同 现 网络 的 最短 路径 长度 、 聚类 系数 和 度 分布 , 实验 数据 显示 97 个 藏 文字 同 现 网络 都 具有 小 世界 效应 和 无 标度 特性 , 表明 藏 文 字 同 现 网络 都 具有 小 世界 效应 和 无 标度 特性 。	1<2	elab-addition	elab-addition
nlpabs18_Chi	1-10	11-20	不 平衡 数据 广泛 存在 于 现实 生活 中 ,	代价 敏感 学习 能 有效 解决 这 一 问题 。	1-20	1-20	不 平衡 数据 广泛 存在 于 现实 生活 中 , 代价 敏感 学习 能 有效 解决 这 一 问题 。	不 平衡 数据 广泛 存在 于 现实 生活 中 , 代价 敏感 学习 能 有效 解决 这 一 问题 。	1>2	bg-general	bg-general
nlpabs18_Chi	11-20	21-32	代价 敏感 学习 能 有效 解决 这 一 问题 。	然而 , 当 数据 的 标记 信息 有限 或 不足 时 ,	1-20	21-50	不 平衡 数据 广泛 存在 于 现实 生活 中 , 代价 敏感 学习 能 有效 解决 这 一 问题 。	然而 , 当 数据 的 标记 信息 有限 或 不足 时 , 代价 敏感 学习分 类器 的 分类 精度 大大 下降 , 分类 性 能 得 不 到 保证 。	1>2	bg-general	bg-general
nlpabs18_Chi	21-32	33-42	然而 , 当 数据 的 标记 信息 有限 或 不足 时 ,	代价 敏感 学习分 类器 的 分类 精度 大大 下降 ,	21-50	21-50	然而 , 当 数据 的 标记 信息 有限 或 不足 时 , 代价 敏感 学习分 类器 的 分类 精度 大大 下降 , 分类 性 能 得 不 到 保证 。	然而 , 当 数据 的 标记 信息 有限 或 不足 时 , 代价 敏感 学习分 类器 的 分类 精度 大大 下降 , 分类 性 能 得 不 到 保证 。	1>2	condition	condition
nlpabs18_Chi	33-42	51-55	代价 敏感 学习分 类器 的 分类 精度 大大 下降 ,	针对 这 一 情况 ,	21-50	51-134	然而 , 当 数据 的 标记 信息 有限 或 不足 时 , 代价 敏感 学习分 类器 的 分类 精度 大大 下降 , 分类 性 能 得 不 到 保证 。	针对 这 一 情况 , 该文 提出 了 一 种 局部 几何 保持 的 Laplacian 代价 敏感 支持 向量 机 ( LPCS-Lap SVM ) , 该 模型 基 于 半 监督 学习 框 架 , 将 代价 敏感 学习 和 类内 局部 保持 散度 的 思想 引入 其中 , 从 考虑 内 在 可 分辨 信息 和 样本 的 局部 几何 分布 两 方面 来 提 高 代价 敏感 支持 向 量 机 在 标记 信息 有限 的 场景 中 的 分类 性能 。	1>2	elab-addition	elab-addition
nlpabs18_Chi	33-42	43-50	代价 敏感 学习分 类器 的 分类 精度 大大 下降 ,	分类 性 能 得 不 到 保证 。	21-50	21-50	然而 , 当 数据 的 标记 信息 有限 或 不足 时 , 代价 敏感 学习分 类器 的 分类 精度 大大 下降 , 分类 性 能 得 不 到 保证 。	然而 , 当 数据 的 标记 信息 有限 或 不足 时 , 代价 敏感 学习分 类器 的 分类 精度 大大 下降 , 分类 性 能 得 不 到 保证 。	1<2	result	result
nlpabs18_Chi	51-55	56-75	针对 这 一 情况 ,	该文 提出 了 一 种 局部 几何 保持 的 Laplacian 代价 敏感 支持 向量 机 ( LPCS-Lap SVM ) ,	51-134	51-134	针对 这 一 情况 , 该文 提出 了 一 种 局部 几何 保持 的 Laplacian 代价 敏感 支持 向量 机 ( LPCS-Lap SVM ) , 该 模型 基 于 半 监督 学习 框 架 , 将 代价 敏感 学习 和 类内 局部 保持 散度 的 思想 引入 其中 , 从 考虑 内 在 可 分辨 信息 和 样本 的 局部 几何 分布 两 方面 来 提 高 代价 敏感 支持 向 量 机 在 标记 信息 有限 的 场景 中 的 分类 性能 。	针对 这 一 情况 , 该文 提出 了 一 种 局部 几何 保持 的 Laplacian 代价 敏感 支持 向量 机 ( LPCS-Lap SVM ) , 该 模型 基 于 半 监督 学习 框 架 , 将 代价 敏感 学习 和 类内 局部 保持 散度 的 思想 引入 其中 , 从 考虑 内 在 可 分辨 信息 和 样本 的 局部 几何 分布 两 方面 来 提 高 代价 敏感 支持 向 量 机 在 标记 信息 有限 的 场景 中 的 分类 性能 。	1>2	bg-general	bg-general
nlpabs18_Chi	56-75	76-85	该文 提出 了 一 种 局部 几何 保持 的 Laplacian 代价 敏感 支持 向量 机 ( LPCS-Lap SVM ) ,	该 模型 基 于 半 监督 学习 框 架 ,	51-134	51-134	针对 这 一 情况 , 该文 提出 了 一 种 局部 几何 保持 的 Laplacian 代价 敏感 支持 向量 机 ( LPCS-Lap SVM ) , 该 模型 基 于 半 监督 学习 框 架 , 将 代价 敏感 学习 和 类内 局部 保持 散度 的 思想 引入 其中 , 从 考虑 内 在 可 分辨 信息 和 样本 的 局部 几何 分布 两 方面 来 提 高 代价 敏感 支持 向 量 机 在 标记 信息 有限 的 场景 中 的 分类 性能 。	针对 这 一 情况 , 该文 提出 了 一 种 局部 几何 保持 的 Laplacian 代价 敏感 支持 向量 机 ( LPCS-Lap SVM ) , 该 模型 基 于 半 监督 学习 框 架 , 将 代价 敏感 学习 和 类内 局部 保持 散度 的 思想 引入 其中 , 从 考虑 内 在 可 分辨 信息 和 样本 的 局部 几何 分布 两 方面 来 提 高 代价 敏感 支持 向 量 机 在 标记 信息 有限 的 场景 中 的 分类 性能 。	1<2	elab-addition	elab-addition
nlpabs18_Chi	76-85	86-99	该 模型 基 于 半 监督 学习 框 架 ,	将 代价 敏感 学习 和 类内 局部 保持 散度 的 思想 引入 其中 ,	51-134	51-134	针对 这 一 情况 , 该文 提出 了 一 种 局部 几何 保持 的 Laplacian 代价 敏感 支持 向量 机 ( LPCS-Lap SVM ) , 该 模型 基 于 半 监督 学习 框 架 , 将 代价 敏感 学习 和 类内 局部 保持 散度 的 思想 引入 其中 , 从 考虑 内 在 可 分辨 信息 和 样本 的 局部 几何 分布 两 方面 来 提 高 代价 敏感 支持 向 量 机 在 标记 信息 有限 的 场景 中 的 分类 性能 。	针对 这 一 情况 , 该文 提出 了 一 种 局部 几何 保持 的 Laplacian 代价 敏感 支持 向量 机 ( LPCS-Lap SVM ) , 该 模型 基 于 半 监督 学习 框 架 , 将 代价 敏感 学习 和 类内 局部 保持 散度 的 思想 引入 其中 , 从 考虑 内 在 可 分辨 信息 和 样本 的 局部 几何 分布 两 方面 来 提 高 代价 敏感 支持 向 量 机 在 标记 信息 有限 的 场景 中 的 分类 性能 。	1<2	elab-addition	elab-addition
nlpabs18_Chi	86-99	100-134	将 代价 敏感 学习 和 类内 局部 保持 散度 的 思想 引入 其中 ,	从 考虑 内 在 可 分辨 信息 和 样本 的 局部 几何 分布 两 方面 来 提 高 代价 敏感 支持 向 量 机 在 标记 信息 有限 的 场景 中 的 分类 性能 。	51-134	51-134	针对 这 一 情况 , 该文 提出 了 一 种 局部 几何 保持 的 Laplacian 代价 敏感 支持 向量 机 ( LPCS-Lap SVM ) , 该 模型 基 于 半 监督 学习 框 架 , 将 代价 敏感 学习 和 类内 局部 保持 散度 的 思想 引入 其中 , 从 考虑 内 在 可 分辨 信息 和 样本 的 局部 几何 分布 两 方面 来 提 高 代价 敏感 支持 向 量 机 在 标记 信息 有限 的 场景 中 的 分类 性能 。	针对 这 一 情况 , 该文 提出 了 一 种 局部 几何 保持 的 Laplacian 代价 敏感 支持 向量 机 ( LPCS-Lap SVM ) , 该 模型 基 于 半 监督 学习 框 架 , 将 代价 敏感 学习 和 类内 局部 保持 散度 的 思想 引入 其中 , 从 考虑 内 在 可 分辨 信息 和 样本 的 局部 几何 分布 两 方面 来 提 高 代价 敏感 支持 向 量 机 在 标记 信息 有限 的 场景 中 的 分类 性能 。	1<2	elab-addition	elab-addition
nlpabs18_Chi	56-75	135-148	该文 提出 了 一 种 局部 几何 保持 的 Laplacian 代价 敏感 支持 向量 机 ( LPCS-Lap SVM ) ,	UCI 数据 集上 的 实验 结果 表明 了 该 算法 的 有效 性 。	51-134	135-148	针对 这 一 情况 , 该文 提出 了 一 种 局部 几何 保持 的 Laplacian 代价 敏感 支持 向量 机 ( LPCS-Lap SVM ) , 该 模型 基 于 半 监督 学习 框 架 , 将 代价 敏感 学习 和 类内 局部 保持 散度 的 思想 引入 其中 , 从 考虑 内 在 可 分辨 信息 和 样本 的 局部 几何 分布 两 方面 来 提 高 代价 敏感 支持 向 量 机 在 标记 信息 有限 的 场景 中 的 分类 性能 。	UCI 数据 集上 的 实验 结果 表明 了 该 算法 的 有效 性 。	1<2	evaluation	evaluation
nlpabs20_Chi	1-16	17-43	为 从 大量 的 复杂 非 规范 网页 结构 中 自动 抽取 出 新闻 标题 ,	该文 提出 一 种 基 于 密度 和 文本 特征 的 新闻 标题 抽取 算法 ( title extraction with den sity and text-features , TEDT ) 。	1-43	1-43	为 从 大量 的 复杂 非 规范 网页 结构 中 自动 抽取 出 新闻 标题 , 该文 提出 一 种 基 于 密度 和 文本 特征 的 新闻 标题 抽取 算法 ( title extraction with den sity and text-features , TEDT ) 。	为 从 大量 的 复杂 非 规范 网页 结构 中 自动 抽取 出 新闻 标题 , 该文 提出 一 种 基 于 密度 和 文本 特征 的 新闻 标题 抽取 算法 ( title extraction with den sity and text-features , TEDT ) 。	1>2	bg-goal	bg-goal
nlpabs20_Chi	17-43	44-58	该文 提出 一 种 基 于 密度 和 文本 特征 的 新闻 标题 抽取 算法 ( title extraction with den sity and text-features , TEDT ) 。	主要 通过 融合 网页 文本 密度 分布 和 语言 特征 的 语料 判定 模型 ,	1-43	44-98	为 从 大量 的 复杂 非 规范 网页 结构 中 自动 抽取 出 新闻 标题 , 该文 提出 一 种 基 于 密度 和 文本 特征 的 新闻 标题 抽取 算法 ( title extraction with den sity and text-features , TEDT ) 。	主要 通过 融合 网页 文本 密度 分布 和 语言 特征 的 语料 判定 模型 , 将 网页 划分 为 语料 区 和 标题 候选 区 , 选取 语料后 通过 Text Rank 算法 计算 对应 的 key-value 权重 集合 , 最后 采用 改进 的 相似 度 计算 方法 从 标题 候选 区 抽取 新闻 标题 。	1<2	elab-process_step	elab-process_step
nlpabs20_Chi	44-58	59-69	主要 通过 融合 网页 文本 密度 分布 和 语言 特征 的 语料 判定 模型 ,	将 网页 划分 为 语料 区 和 标题 候选 区 ,	44-98	44-98	主要 通过 融合 网页 文本 密度 分布 和 语言 特征 的 语料 判定 模型 , 将 网页 划分 为 语料 区 和 标题 候选 区 , 选取 语料后 通过 Text Rank 算法 计算 对应 的 key-value 权重 集合 , 最后 采用 改进 的 相似 度 计算 方法 从 标题 候选 区 抽取 新闻 标题 。	主要 通过 融合 网页 文本 密度 分布 和 语言 特征 的 语料 判定 模型 , 将 网页 划分 为 语料 区 和 标题 候选 区 , 选取 语料后 通过 Text Rank 算法 计算 对应 的 key-value 权重 集合 , 最后 采用 改进 的 相似 度 计算 方法 从 标题 候选 区 抽取 新闻 标题 。	1<2	enablement	enablement
nlpabs20_Chi	70-71	72-75	选取 语料后	通过 Text Rank 算法	44-98	44-98	主要 通过 融合 网页 文本 密度 分布 和 语言 特征 的 语料 判定 模型 , 将 网页 划分 为 语料 区 和 标题 候选 区 , 选取 语料后 通过 Text Rank 算法 计算 对应 的 key-value 权重 集合 , 最后 采用 改进 的 相似 度 计算 方法 从 标题 候选 区 抽取 新闻 标题 。	主要 通过 融合 网页 文本 密度 分布 和 语言 特征 的 语料 判定 模型 , 将 网页 划分 为 语料 区 和 标题 候选 区 , 选取 语料后 通过 Text Rank 算法 计算 对应 的 key-value 权重 集合 , 最后 采用 改进 的 相似 度 计算 方法 从 标题 候选 区 抽取 新闻 标题 。	1>2	temporal	temporal
nlpabs20_Chi	17-43	72-75	该文 提出 一 种 基 于 密度 和 文本 特征 的 新闻 标题 抽取 算法 ( title extraction with den sity and text-features , TEDT ) 。	通过 Text Rank 算法	1-43	44-98	为 从 大量 的 复杂 非 规范 网页 结构 中 自动 抽取 出 新闻 标题 , 该文 提出 一 种 基 于 密度 和 文本 特征 的 新闻 标题 抽取 算法 ( title extraction with den sity and text-features , TEDT ) 。	主要 通过 融合 网页 文本 密度 分布 和 语言 特征 的 语料 判定 模型 , 将 网页 划分 为 语料 区 和 标题 候选 区 , 选取 语料后 通过 Text Rank 算法 计算 对应 的 key-value 权重 集合 , 最后 采用 改进 的 相似 度 计算 方法 从 标题 候选 区 抽取 新闻 标题 。	1<2	elab-process_step	elab-process_step
nlpabs20_Chi	72-75	76-82	通过 Text Rank 算法	计算 对应 的 key-value 权重 集合 ,	44-98	44-98	主要 通过 融合 网页 文本 密度 分布 和 语言 特征 的 语料 判定 模型 , 将 网页 划分 为 语料 区 和 标题 候选 区 , 选取 语料后 通过 Text Rank 算法 计算 对应 的 key-value 权重 集合 , 最后 采用 改进 的 相似 度 计算 方法 从 标题 候选 区 抽取 新闻 标题 。	主要 通过 融合 网页 文本 密度 分布 和 语言 特征 的 语料 判定 模型 , 将 网页 划分 为 语料 区 和 标题 候选 区 , 选取 语料后 通过 Text Rank 算法 计算 对应 的 key-value 权重 集合 , 最后 采用 改进 的 相似 度 计算 方法 从 标题 候选 区 抽取 新闻 标题 。	1<2	enablement	enablement
nlpabs20_Chi	17-43	83-90	该文 提出 一 种 基 于 密度 和 文本 特征 的 新闻 标题 抽取 算法 ( title extraction with den sity and text-features , TEDT ) 。	最后 采用 改进 的 相似 度 计算 方法	1-43	44-98	为 从 大量 的 复杂 非 规范 网页 结构 中 自动 抽取 出 新闻 标题 , 该文 提出 一 种 基 于 密度 和 文本 特征 的 新闻 标题 抽取 算法 ( title extraction with den sity and text-features , TEDT ) 。	主要 通过 融合 网页 文本 密度 分布 和 语言 特征 的 语料 判定 模型 , 将 网页 划分 为 语料 区 和 标题 候选 区 , 选取 语料后 通过 Text Rank 算法 计算 对应 的 key-value 权重 集合 , 最后 采用 改进 的 相似 度 计算 方法 从 标题 候选 区 抽取 新闻 标题 。	1<2	elab-process_step	elab-process_step
nlpabs20_Chi	83-90	91-98	最后 采用 改进 的 相似 度 计算 方法	从 标题 候选 区 抽取 新闻 标题 。	44-98	44-98	主要 通过 融合 网页 文本 密度 分布 和 语言 特征 的 语料 判定 模型 , 将 网页 划分 为 语料 区 和 标题 候选 区 , 选取 语料后 通过 Text Rank 算法 计算 对应 的 key-value 权重 集合 , 最后 采用 改进 的 相似 度 计算 方法 从 标题 候选 区 抽取 新闻 标题 。	主要 通过 融合 网页 文本 密度 分布 和 语言 特征 的 语料 判定 模型 , 将 网页 划分 为 语料 区 和 标题 候选 区 , 选取 语料后 通过 Text Rank 算法 计算 对应 的 key-value 权重 集合 , 最后 采用 改进 的 相似 度 计算 方法 从 标题 候选 区 抽取 新闻 标题 。	1<2	enablement	enablement
nlpabs20_Chi	17-43	99-109	该文 提出 一 种 基 于 密度 和 文本 特征 的 新闻 标题 抽取 算法 ( title extraction with den sity and text-features , TEDT ) 。	该 算法 能 有 效 划分 语料 和 标题 区域 ,	1-43	99-120	为 从 大量 的 复杂 非 规范 网页 结构 中 自动 抽取 出 新闻 标题 , 该文 提出 一 种 基 于 密度 和 文本 特征 的 新闻 标题 抽取 算法 ( title extraction with den sity and text-features , TEDT ) 。	该 算法 能 有 效 划分 语料 和 标题 区域 , 降低 网页 噪声 干扰 , 准确 抽取 出 新闻 标题 。	1<2	evaluation	evaluation
nlpabs20_Chi	99-109	110-114	该 算法 能 有 效 划分 语料 和 标题 区域 ,	降低 网页 噪声 干扰 ,	99-120	99-120	该 算法 能 有 效 划分 语料 和 标题 区域 , 降低 网页 噪声 干扰 , 准确 抽取 出 新闻 标题 。	该 算法 能 有 效 划分 语料 和 标题 区域 , 降低 网页 噪声 干扰 , 准确 抽取 出 新闻 标题 。	1<2	joint	joint
nlpabs20_Chi	99-109	115-120	该 算法 能 有 效 划分 语料 和 标题 区域 ,	准确 抽取 出 新闻 标题 。	99-120	99-120	该 算法 能 有 效 划分 语料 和 标题 区域 , 降低 网页 噪声 干扰 , 准确 抽取 出 新闻 标题 。	该 算法 能 有 效 划分 语料 和 标题 区域 , 降低 网页 噪声 干扰 , 准确 抽取 出 新闻 标题 。	1<2	result	result
nlpabs20_Chi	121-124	125-148	实验 结果 表明 ,	TEDT 的 准确 率 和 召回 率 均 优 于 传统 的 基 于 规则 和 相似 度 的 新闻 标题 抽取 算法 ,	121-168	121-168	实验 结果 表明 , TEDT 的 准确 率 和 召回 率 均 优 于 传统 的 基 于 规则 和 相似 度 的 新闻 标题 抽取 算法 , 证明 了 TEDT 不仅 对 主流 新闻 网站 有效 , 而且 对 复杂 非 规范 网页 也 广泛 适用 。	实验 结果 表明 , TEDT 的 准确 率 和 召回 率 均 优 于 传统 的 基 于 规则 和 相似 度 的 新闻 标题 抽取 算法 , 证明 了 TEDT 不仅 对 主流 新闻 网站 有效 , 而且 对 复杂 非 规范 网页 也 广泛 适用 。	1>2	attribution	attribution
nlpabs20_Chi	99-109	125-148	该 算法 能 有 效 划分 语料 和 标题 区域 ,	TEDT 的 准确 率 和 召回 率 均 优 于 传统 的 基 于 规则 和 相似 度 的 新闻 标题 抽取 算法 ,	99-120	121-168	该 算法 能 有 效 划分 语料 和 标题 区域 , 降低 网页 噪声 干扰 , 准确 抽取 出 新闻 标题 。	实验 结果 表明 , TEDT 的 准确 率 和 召回 率 均 优 于 传统 的 基 于 规则 和 相似 度 的 新闻 标题 抽取 算法 , 证明 了 TEDT 不仅 对 主流 新闻 网站 有效 , 而且 对 复杂 非 规范 网页 也 广泛 适用 。	1<2	elab-addition	elab-addition
nlpabs20_Chi	125-148	149-158	TEDT 的 准确 率 和 召回 率 均 优 于 传统 的 基 于 规则 和 相似 度 的 新闻 标题 抽取 算法 ,	证明 了 TEDT 不仅 对 主流 新闻 网站 有效 ,	121-168	121-168	实验 结果 表明 , TEDT 的 准确 率 和 召回 率 均 优 于 传统 的 基 于 规则 和 相似 度 的 新闻 标题 抽取 算法 , 证明 了 TEDT 不仅 对 主流 新闻 网站 有效 , 而且 对 复杂 非 规范 网页 也 广泛 适用 。	实验 结果 表明 , TEDT 的 准确 率 和 召回 率 均 优 于 传统 的 基 于 规则 和 相似 度 的 新闻 标题 抽取 算法 , 证明 了 TEDT 不仅 对 主流 新闻 网站 有效 , 而且 对 复杂 非 规范 网页 也 广泛 适用 。	1<2	elab-addition	elab-addition
nlpabs20_Chi	149-158	159-168	证明 了 TEDT 不仅 对 主流 新闻 网站 有效 ,	而且 对 复杂 非 规范 网页 也 广泛 适用 。	121-168	121-168	实验 结果 表明 , TEDT 的 准确 率 和 召回 率 均 优 于 传统 的 基 于 规则 和 相似 度 的 新闻 标题 抽取 算法 , 证明 了 TEDT 不仅 对 主流 新闻 网站 有效 , 而且 对 复杂 非 规范 网页 也 广泛 适用 。	实验 结果 表明 , TEDT 的 准确 率 和 召回 率 均 优 于 传统 的 基 于 规则 和 相似 度 的 新闻 标题 抽取 算法 , 证明 了 TEDT 不仅 对 主流 新闻 网站 有效 , 而且 对 复杂 非 规范 网页 也 广泛 适用 。	1<2	progression	progression
nlpabs53_Chi	1-25	80-94	大 数据 时代 , 文本 数据 量 的 爆炸 式 增长 使得 特征 选择 成 为 文本 挖掘 领域 最关键 的 任务 之 一 。	该文 提出 基 于 包含 度 和 频繁 模式 的 文本 特征 选择 方法 :	1-25	80-94	大 数据 时代 , 文本 数据 量 的 爆炸 式 增长 使得 特征 选择 成 为 文本 挖掘 领域 最关键 的 任务 之 一 。	该文 提出 基 于 包含 度 和 频繁 模式 的 文本 特征 选择 方法 :	1>2	bg-general	bg-general
nlpabs53_Chi	1-25	26-34	大 数据 时代 , 文本 数据 量 的 爆炸 式 增长 使得 特征 选择 成 为 文本 挖掘 领域 最关键 的 任务 之 一 。	文档 中 的 词语 和 模式 规模 庞杂 ,	1-25	26-45	大 数据 时代 , 文本 数据 量 的 爆炸 式 增长 使得 特征 选择 成 为 文本 挖掘 领域 最关键 的 任务 之 一 。	文档 中 的 词语 和 模式 规模 庞杂 , 故 需 保证 所 挖掘 特征 的 质量 充满 挑战 。	1<2	elab-addition	elab-addition
nlpabs53_Chi	26-34	35-45	文档 中 的 词语 和 模式 规模 庞杂 ,	故 需 保证 所 挖掘 特征 的 质量 充满 挑战 。	26-45	26-45	文档 中 的 词语 和 模式 规模 庞杂 , 故 需 保证 所 挖掘 特征 的 质量 充满 挑战 。	文档 中 的 词语 和 模式 规模 庞杂 , 故 需 保证 所 挖掘 特征 的 质量 充满 挑战 。	1<2	result	result
nlpabs53_Chi	26-34	46-67	文档 中 的 词语 和 模式 规模 庞杂 ,	“ 基 于 模式 ” 特征 选择 方法 具有 传统 “ 基 于 词语 ” 方法 所 没有 的 优越 特性 ,	26-45	46-79	文档 中 的 词语 和 模式 规模 庞杂 , 故 需 保证 所 挖掘 特征 的 质量 充满 挑战 。	“ 基 于 模式 ” 特征 选择 方法 具有 传统 “ 基 于 词语 ” 方法 所 没有 的 优越 特性 , 可以 进行 有效 地 信息 去噪 , 提升 文本 挖掘 性能 。	1<2	joint	joint
nlpabs53_Chi	46-67	68-74	“ 基 于 模式 ” 特征 选择 方法 具有 传统 “ 基 于 词语 ” 方法 所 没有 的 优越 特性 ,	可以 进行 有效 地 信息 去噪 ,	46-79	46-79	“ 基 于 模式 ” 特征 选择 方法 具有 传统 “ 基 于 词语 ” 方法 所 没有 的 优越 特性 , 可以 进行 有效 地 信息 去噪 , 提升 文本 挖掘 性能 。	“ 基 于 模式 ” 特征 选择 方法 具有 传统 “ 基 于 词语 ” 方法 所 没有 的 优越 特性 , 可以 进行 有效 地 信息 去噪 , 提升 文本 挖掘 性能 。	1<2	elab-addition	elab-addition
nlpabs53_Chi	68-74	75-79	可以 进行 有效 地 信息 去噪 ,	提升 文本 挖掘 性能 。	46-79	46-79	“ 基 于 模式 ” 特征 选择 方法 具有 传统 “ 基 于 词语 ” 方法 所 没有 的 优越 特性 , 可以 进行 有效 地 信息 去噪 , 提升 文本 挖掘 性能 。	“ 基 于 模式 ” 特征 选择 方法 具有 传统 “ 基 于 词语 ” 方法 所 没有 的 优越 特性 , 可以 进行 有效 地 信息 去噪 , 提升 文本 挖掘 性能 。	1<2	enablement	enablement
nlpabs53_Chi	80-94	95-107	该文 提出 基 于 包含 度 和 频繁 模式 的 文本 特征 选择 方法 :	首先 , 定义 基 于 包含 度 的 相似 性 度量 原理 ;	80-94	95-123	该文 提出 基 于 包含 度 和 频繁 模式 的 文本 特征 选择 方法 :	首先 , 定义 基 于 包含 度 的 相似 性 度量 原理 ; 然后 , 提出 基 于 包含 度 的 冗余 文本 频繁 模 式 过滤 方法 。	1<2	elab-process_step	elab-process_step
nlpabs53_Chi	95-107	108-123	首先 , 定义 基 于 包含 度 的 相似 性 度量 原理 ;	然后 , 提出 基 于 包含 度 的 冗余 文本 频繁 模 式 过滤 方法 。	95-123	95-123	首先 , 定义 基 于 包含 度 的 相似 性 度量 原理 ; 然后 , 提出 基 于 包含 度 的 冗余 文本 频繁 模 式 过滤 方法 。	首先 , 定义 基 于 包含 度 的 相似 性 度量 原理 ; 然后 , 提出 基 于 包含 度 的 冗余 文本 频繁 模 式 过滤 方法 。	1<2	joint	joint
nlpabs53_Chi	108-123	124-135	然后 , 提出 基 于 包含 度 的 冗余 文本 频繁 模 式 过滤 方法 。	基 于 包含 度 度量 文本 频繁 模式 间 相似 性 ,	95-123	124-148	首先 , 定义 基 于 包含 度 的 相似 性 度量 原理 ; 然后 , 提出 基 于 包含 度 的 冗余 文本 频繁 模 式 过滤 方法 。	基 于 包含 度 度量 文本 频繁 模式 间 相似 性 , 以 此 去除 子 模式 及 相似 度 较高 的 交叉 模式 。	1<2	elab-addition	elab-addition
nlpabs53_Chi	124-135	136-148	基 于 包含 度 度量 文本 频繁 模式 间 相似 性 ,	以 此 去除 子 模式 及 相似 度 较高 的 交叉 模式 。	124-148	124-148	基 于 包含 度 度量 文本 频繁 模式 间 相似 性 , 以 此 去除 子 模式 及 相似 度 较高 的 交叉 模式 。	基 于 包含 度 度量 文本 频繁 模式 间 相似 性 , 以 此 去除 子 模式 及 相似 度 较高 的 交叉 模式 。	1<2	enablement	enablement
nlpabs53_Chi	108-123	149-154	然后 , 提出 基 于 包含 度 的 冗余 文本 频繁 模 式 过滤 方法 。	再 通过 冗余 模式 去噪 ,	95-123	149-173	首先 , 定义 基 于 包含 度 的 相似 性 度量 原理 ; 然后 , 提出 基 于 包含 度 的 冗余 文本 频繁 模 式 过滤 方法 。	再 通过 冗余 模式 去噪 , 提升 文本 频繁 模 式 挖掘 性能 ; 提出 基 于 关联 度 的 文本 特征 选择 方法 。	1<2	joint	joint
nlpabs53_Chi	149-154	155-162	再 通过 冗余 模式 去噪 ,	提升 文本 频繁 模 式 挖掘 性能 ;	149-173	149-173	再 通过 冗余 模式 去噪 , 提升 文本 频繁 模 式 挖掘 性能 ; 提出 基 于 关联 度 的 文本 特征 选择 方法 。	再 通过 冗余 模式 去噪 , 提升 文本 频繁 模 式 挖掘 性能 ; 提出 基 于 关联 度 的 文本 特征 选择 方法 。	1<2	enablement	enablement
nlpabs53_Chi	149-154	163-173	再 通过 冗余 模式 去噪 ,	提出 基 于 关联 度 的 文本 特征 选择 方法 。	149-173	149-173	再 通过 冗余 模式 去噪 , 提升 文本 频繁 模 式 挖掘 性能 ; 提出 基 于 关联 度 的 文本 特征 选择 方法 。	再 通过 冗余 模式 去噪 , 提升 文本 频繁 模 式 挖掘 性能 ; 提出 基 于 关联 度 的 文本 特征 选择 方法 。	1<2	joint	joint
nlpabs53_Chi	174-188	189-193	以 经过 过滤 处理 后 的 非 冗余 文本 频繁 模 式 为 基础 ,	进行 文本 特征 选择 ,	174-209	174-209	以 经过 过滤 处理 后 的 非 冗余 文本 频繁 模 式 为 基础 , 进行 文本 特征 选择 , 并 利用 词语 与 文档 的 关联 度 进行 词语 类别 划分 及 权重 分配 。	以 经过 过滤 处理 后 的 非 冗余 文本 频繁 模 式 为 基础 , 进行 文本 特征 选择 , 并 利用 词语 与 文档 的 关联 度 进行 词语 类别 划分 及 权重 分配 。	1>2	bg-goal	bg-goal
nlpabs53_Chi	149-154	189-193	再 通过 冗余 模式 去噪 ,	进行 文本 特征 选择 ,	149-173	174-209	再 通过 冗余 模式 去噪 , 提升 文本 频繁 模 式 挖掘 性能 ; 提出 基 于 关联 度 的 文本 特征 选择 方法 。	以 经过 过滤 处理 后 的 非 冗余 文本 频繁 模 式 为 基础 , 进行 文本 特征 选择 , 并 利用 词语 与 文档 的 关联 度 进行 词语 类别 划分 及 权重 分配 。	1<2	joint	joint
nlpabs53_Chi	189-193	194-209	进行 文本 特征 选择 ,	并 利用 词语 与 文档 的 关联 度 进行 词语 类别 划分 及 权重 分配 。	174-209	174-209	以 经过 过滤 处理 后 的 非 冗余 文本 频繁 模 式 为 基础 , 进行 文本 特征 选择 , 并 利用 词语 与 文档 的 关联 度 进行 词语 类别 划分 及 权重 分配 。	以 经过 过滤 处理 后 的 非 冗余 文本 频繁 模 式 为 基础 , 进行 文本 特征 选择 , 并 利用 词语 与 文档 的 关联 度 进行 词语 类别 划分 及 权重 分配 。	1<2	joint	joint
nlpabs53_Chi	194-209	210-220	并 利用 词语 与 文档 的 关联 度 进行 词语 类别 划分 及 权重 分配 。	使 所 选 特征 与 文档 关联 度 更加 清晰 ,	174-209	210-224	以 经过 过滤 处理 后 的 非 冗余 文本 频繁 模 式 为 基础 , 进行 文本 特征 选择 , 并 利用 词语 与 文档 的 关联 度 进行 词语 类别 划分 及 权重 分配 。	使 所 选 特征 与 文档 关联 度 更加 清晰 , 分类 效果 更好 。	1<2	enablement	enablement
nlpabs53_Chi	210-220	221-224	使 所 选 特征 与 文档 关联 度 更加 清晰 ,	分类 效果 更好 。	210-224	210-224	使 所 选 特征 与 文档 关联 度 更加 清晰 , 分类 效果 更好 。	使 所 选 特征 与 文档 关联 度 更加 清晰 , 分类 效果 更好 。	1<2	elab-addition	elab-addition
nlpabs53_Chi	225-235	236-270	通过 在 数据 集 Reuters -21578 上 的 实验 得知 ,	基 于 包含 度 和 频繁 模式 的 文本 特征 选择 算法 性能 , 优 于 当前 普遍 应用 的 传统 文本 特征 选择 方法 和 新 的 特征 选择 及 特征 抽取 方法 。	225-270	225-270	通过 在 数据 集 Reuters -21578 上 的 实验 得知 , 基 于 包含 度 和 频繁 模式 的 文本 特征 选择 算法 性能 , 优 于 当前 普遍 应用 的 传统 文本 特征 选择 方法 和 新 的 特征 选择 及 特征 抽取 方法 。	通过 在 数据 集 Reuters -21578 上 的 实验 得知 , 基 于 包含 度 和 频繁 模式 的 文本 特征 选择 算法 性能 , 优 于 当前 普遍 应用 的 传统 文本 特征 选择 方法 和 新 的 特征 选择 及 特征 抽取 方法 。	1>2	attribution	attribution
nlpabs53_Chi	80-94	236-270	该文 提出 基 于 包含 度 和 频繁 模式 的 文本 特征 选择 方法 :	基 于 包含 度 和 频繁 模式 的 文本 特征 选择 算法 性能 , 优 于 当前 普遍 应用 的 传统 文本 特征 选择 方法 和 新 的 特征 选择 及 特征 抽取 方法 。	80-94	225-270	该文 提出 基 于 包含 度 和 频繁 模式 的 文本 特征 选择 方法 :	通过 在 数据 集 Reuters -21578 上 的 实验 得知 , 基 于 包含 度 和 频繁 模式 的 文本 特征 选择 算法 性能 , 优 于 当前 普遍 应用 的 传统 文本 特征 选择 方法 和 新 的 特征 选择 及 特征 抽取 方法 。	1<2	evaluation	evaluation
nlpabs59_Chi	1-18	78-101	现有 的 将 词 映射 为 单 一 向量 的 方法 没有 考虑 词 的 多义 性 ,	该文 提出 了 一 种 基 于 非 残差 块 封装 的 门控 卷积 机制 加 以 层次 注意 力 机制 的 方法 ,	1-70	71-154	现有 的 将 词 映射 为 单 一 向量 的 方法 没有 考虑 词 的 多义 性 , 从而 会 引发 歧义 问题 ; 映射 为 多 个 向量 或 高斯 分布 的 方法 虽然 考虑 了 词 的 多义 性 , 但 或多 或少 没能 有 效 利用 词序 、 句法 结构 和 词间 距离 等 信息 对 词 在 某一 固定 语境 中 语义 表达 的 影响 。	综合 考虑 以上 存在 的 问题 , 该文 提出 了 一 种 基 于 非 残差 块 封装 的 门控 卷积 机制 加 以 层次 注意 力 机制 的 方法 , 分别 在 所 选取 语境 窗口 中 词 的 子 语义 层 、 合成 语义 层 获得 非 对称 语境 窗 口 下 目标 单 词 的 合成 语义 向量 以 预测 目标 单词 , 并 按 此法 在 给定 语料 上 学习 得到 多 语 义 词 向量 的 计算 方法 。	1>2	bg-compare	bg-compare
nlpabs59_Chi	1-18	19-24	现有 的 将 词 映射 为 单 一 向量 的 方法 没有 考虑 词 的 多义 性 ,	从而 会 引发 歧义 问题 ;	1-70	1-70	现有 的 将 词 映射 为 单 一 向量 的 方法 没有 考虑 词 的 多义 性 , 从而 会 引发 歧义 问题 ; 映射 为 多 个 向量 或 高斯 分布 的 方法 虽然 考虑 了 词 的 多义 性 , 但 或多 或少 没能 有 效 利用 词序 、 句法 结构 和 词间 距离 等 信息 对 词 在 某一 固定 语境 中 语义 表达 的 影响 。	现有 的 将 词 映射 为 单 一 向量 的 方法 没有 考虑 词 的 多义 性 , 从而 会 引发 歧义 问题 ; 映射 为 多 个 向量 或 高斯 分布 的 方法 虽然 考虑 了 词 的 多义 性 , 但 或多 或少 没能 有 效 利用 词序 、 句法 结构 和 词间 距离 等 信息 对 词 在 某一 固定 语境 中 语义 表达 的 影响 。	1<2	result	result
nlpabs59_Chi	1-18	25-42	现有 的 将 词 映射 为 单 一 向量 的 方法 没有 考虑 词 的 多义 性 ,	映射 为 多 个 向量 或 高斯 分布 的 方法 虽然 考虑 了 词 的 多义 性 ,	1-70	1-70	现有 的 将 词 映射 为 单 一 向量 的 方法 没有 考虑 词 的 多义 性 , 从而 会 引发 歧义 问题 ; 映射 为 多 个 向量 或 高斯 分布 的 方法 虽然 考虑 了 词 的 多义 性 , 但 或多 或少 没能 有 效 利用 词序 、 句法 结构 和 词间 距离 等 信息 对 词 在 某一 固定 语境 中 语义 表达 的 影响 。	现有 的 将 词 映射 为 单 一 向量 的 方法 没有 考虑 词 的 多义 性 , 从而 会 引发 歧义 问题 ; 映射 为 多 个 向量 或 高斯 分布 的 方法 虽然 考虑 了 词 的 多义 性 , 但 或多 或少 没能 有 效 利用 词序 、 句法 结构 和 词间 距离 等 信息 对 词 在 某一 固定 语境 中 语义 表达 的 影响 。	1<2	elab-addition	elab-addition
nlpabs59_Chi	25-42	43-70	映射 为 多 个 向量 或 高斯 分布 的 方法 虽然 考虑 了 词 的 多义 性 ,	但 或多 或少 没能 有 效 利用 词序 、 句法 结构 和 词间 距离 等 信息 对 词 在 某一 固定 语境 中 语义 表达 的 影响 。	1-70	1-70	现有 的 将 词 映射 为 单 一 向量 的 方法 没有 考虑 词 的 多义 性 , 从而 会 引发 歧义 问题 ; 映射 为 多 个 向量 或 高斯 分布 的 方法 虽然 考虑 了 词 的 多义 性 , 但 或多 或少 没能 有 效 利用 词序 、 句法 结构 和 词间 距离 等 信息 对 词 在 某一 固定 语境 中 语义 表达 的 影响 。	现有 的 将 词 映射 为 单 一 向量 的 方法 没有 考虑 词 的 多义 性 , 从而 会 引发 歧义 问题 ; 映射 为 多 个 向量 或 高斯 分布 的 方法 虽然 考虑 了 词 的 多义 性 , 但 或多 或少 没能 有 效 利用 词序 、 句法 结构 和 词间 距离 等 信息 对 词 在 某一 固定 语境 中 语义 表达 的 影响 。	1<2	contrast	contrast
nlpabs59_Chi	71-77	78-101	综合 考虑 以上 存在 的 问题 ,	该文 提出 了 一 种 基 于 非 残差 块 封装 的 门控 卷积 机制 加 以 层次 注意 力 机制 的 方法 ,	71-154	71-154	综合 考虑 以上 存在 的 问题 , 该文 提出 了 一 种 基 于 非 残差 块 封装 的 门控 卷积 机制 加 以 层次 注意 力 机制 的 方法 , 分别 在 所 选取 语境 窗口 中 词 的 子 语义 层 、 合成 语义 层 获得 非 对称 语境 窗 口 下 目标 单 词 的 合成 语义 向量 以 预测 目标 单词 , 并 按 此法 在 给定 语料 上 学习 得到 多 语 义 词 向量 的 计算 方法 。	综合 考虑 以上 存在 的 问题 , 该文 提出 了 一 种 基 于 非 残差 块 封装 的 门控 卷积 机制 加 以 层次 注意 力 机制 的 方法 , 分别 在 所 选取 语境 窗口 中 词 的 子 语义 层 、 合成 语义 层 获得 非 对称 语境 窗 口 下 目标 单 词 的 合成 语义 向量 以 预测 目标 单词 , 并 按 此法 在 给定 语料 上 学习 得到 多 语 义 词 向量 的 计算 方法 。	1>2	elab-addition	elab-addition
nlpabs59_Chi	78-101	102-131	该文 提出 了 一 种 基 于 非 残差 块 封装 的 门控 卷积 机制 加 以 层次 注意 力 机制 的 方法 ,	分别 在 所 选取 语境 窗口 中 词 的 子 语义 层 、 合成 语义 层 获得 非 对称 语境 窗 口 下 目标 单 词 的 合成 语义 向量	71-154	71-154	综合 考虑 以上 存在 的 问题 , 该文 提出 了 一 种 基 于 非 残差 块 封装 的 门控 卷积 机制 加 以 层次 注意 力 机制 的 方法 , 分别 在 所 选取 语境 窗口 中 词 的 子 语义 层 、 合成 语义 层 获得 非 对称 语境 窗 口 下 目标 单 词 的 合成 语义 向量 以 预测 目标 单词 , 并 按 此法 在 给定 语料 上 学习 得到 多 语 义 词 向量 的 计算 方法 。	综合 考虑 以上 存在 的 问题 , 该文 提出 了 一 种 基 于 非 残差 块 封装 的 门控 卷积 机制 加 以 层次 注意 力 机制 的 方法 , 分别 在 所 选取 语境 窗口 中 词 的 子 语义 层 、 合成 语义 层 获得 非 对称 语境 窗 口 下 目标 单 词 的 合成 语义 向量 以 预测 目标 单词 , 并 按 此法 在 给定 语料 上 学习 得到 多 语 义 词 向量 的 计算 方法 。	1<2	elab-addition	elab-addition
nlpabs59_Chi	102-131	132-136	分别 在 所 选取 语境 窗口 中 词 的 子 语义 层 、 合成 语义 层 获得 非 对称 语境 窗 口 下 目标 单 词 的 合成 语义 向量	以 预测 目标 单词 ,	71-154	71-154	综合 考虑 以上 存在 的 问题 , 该文 提出 了 一 种 基 于 非 残差 块 封装 的 门控 卷积 机制 加 以 层次 注意 力 机制 的 方法 , 分别 在 所 选取 语境 窗口 中 词 的 子 语义 层 、 合成 语义 层 获得 非 对称 语境 窗 口 下 目标 单 词 的 合成 语义 向量 以 预测 目标 单词 , 并 按 此法 在 给定 语料 上 学习 得到 多 语 义 词 向量 的 计算 方法 。	综合 考虑 以上 存在 的 问题 , 该文 提出 了 一 种 基 于 非 残差 块 封装 的 门控 卷积 机制 加 以 层次 注意 力 机制 的 方法 , 分别 在 所 选取 语境 窗口 中 词 的 子 语义 层 、 合成 语义 层 获得 非 对称 语境 窗 口 下 目标 单 词 的 合成 语义 向量 以 预测 目标 单词 , 并 按 此法 在 给定 语料 上 学习 得到 多 语 义 词 向量 的 计算 方法 。	1<2	enablement	enablement
nlpabs59_Chi	102-131	137-154	分别 在 所 选取 语境 窗口 中 词 的 子 语义 层 、 合成 语义 层 获得 非 对称 语境 窗 口 下 目标 单 词 的 合成 语义 向量	并 按 此法 在 给定 语料 上 学习 得到 多 语 义 词 向量 的 计算 方法 。	71-154	71-154	综合 考虑 以上 存在 的 问题 , 该文 提出 了 一 种 基 于 非 残差 块 封装 的 门控 卷积 机制 加 以 层次 注意 力 机制 的 方法 , 分别 在 所 选取 语境 窗口 中 词 的 子 语义 层 、 合成 语义 层 获得 非 对称 语境 窗 口 下 目标 单 词 的 合成 语义 向量 以 预测 目标 单词 , 并 按 此法 在 给定 语料 上 学习 得到 多 语 义 词 向量 的 计算 方法 。	综合 考虑 以上 存在 的 问题 , 该文 提出 了 一 种 基 于 非 残差 块 封装 的 门控 卷积 机制 加 以 层次 注意 力 机制 的 方法 , 分别 在 所 选取 语境 窗口 中 词 的 子 语义 层 、 合成 语义 层 获得 非 对称 语境 窗 口 下 目标 单 词 的 合成 语义 向量 以 预测 目标 单词 , 并 按 此法 在 给定 语料 上 学习 得到 多 语 义 词 向量 的 计算 方法 。	1<2	elab-addition	elab-addition
nlpabs59_Chi	102-131	155-187	分别 在 所 选取 语境 窗口 中 词 的 子 语义 层 、 合成 语义 层 获得 非 对称 语境 窗 口 下 目标 单 词 的 合成 语义 向量	小 规模 语料 上 用 该 方法 得到 的 多 语义 词 向量 , 在 词类 比 任务 的 语义 类比 上 相比 于 基线 方法 准确 率 最高 可 提升 1.42% ;	71-154	155-221	综合 考虑 以上 存在 的 问题 , 该文 提出 了 一 种 基 于 非 残差 块 封装 的 门控 卷积 机制 加 以 层次 注意 力 机制 的 方法 , 分别 在 所 选取 语境 窗口 中 词 的 子 语义 层 、 合成 语义 层 获得 非 对称 语境 窗 口 下 目标 单 词 的 合成 语义 向量 以 预测 目标 单词 , 并 按 此法 在 给定 语料 上 学习 得到 多 语 义 词 向量 的 计算 方法 。	小 规模 语料 上 用 该 方法 得到 的 多 语义 词 向量 , 在 词类 比 任务 的 语义 类比 上 相比 于 基线 方法 准确 率 最高 可 提升 1.42% ; 在 Word Sim353 、 MC 、 RG 、 RW 等 计算 单词 相似 度 任务 的 数据 集上 相比 于 基线 方法 能够 达到 平均 2.11 的 性能 提升 , 最高 可到 5.471<2	evaluation	evaluation
nlpabs59_Chi	155-187	188-221	小 规模 语料 上 用 该 方法 得到 的 多 语义 词 向量 , 在 词类 比 任务 的 语义 类比 上 相比 于 基线 方法 准确 率 最高 可 提升 1.42% ;	在 Word Sim353 、 MC 、 RG 、 RW 等 计算 单词 相似 度 任务 的 数据 集上 相比 于 基线 方法 能够 达到 平均 2.11 的 性能 提升 , 最高 可到 5.47155-221	155-221	小 规模 语料 上 用 该 方法 得到 的 多 语义 词 向量 , 在 词类 比 任务 的 语义 类比 上 相比 于 基线 方法 准确 率 最高 可 提升 1.42% ; 在 Word Sim353 、 MC 、 RG 、 RW 等 计算 单词 相似 度 任务 的 数据 集上 相比 于 基线 方法 能够 达到 平均 2.11 的 性能 提升 , 最高 可到 5.47 。	小 规模 语料 上 用 该 方法 得到 的 多 语义 词 向量 , 在 词类 比 任务 的 语义 类比 上 相比 于 基线 方法 准确 率 最高 可 提升 1.42% ; 在 Word Sim353 、 MC 、 RG 、 RW 等 计算 单词 相似 度 任务 的 数据 集上 相比 于 基线 方法 能够 达到 平均 2.11 的 性能 提升 , 最高 可到 5.471<2	joint	joint
nlpabs59_Chi	155-187	222-246	小 规模 语料 上 用 该 方法 得到 的 多 语义 词 向量 , 在 词类 比 任务 的 语义 类比 上 相比 于 基线 方法 准确 率 最高 可 提升 1.42% ;	在 语言 建模 实验 上 , 该 方法 的 语言 模型 性能 相比 于 其他 预测 目标 单词 的 方法 也 有 显著 提升 。	155-221	222-246	小 规模 语料 上 用 该 方法 得到 的 多 语义 词 向量 , 在 词类 比 任务 的 语义 类比 上 相比 于 基线 方法 准确 率 最高 可 提升 1.42% ; 在 Word Sim353 、 MC 、 RG 、 RW 等 计算 单词 相似 度 任务 的 数据 集上 相比 于 基线 方法 能够 达到 平均 2.11 的 性能 提升 , 最高 可到 5.47 。	在 语言 建模 实验 上 , 该 方法 的 语言 模型 性能 相比 于 其他 预测 目标 单词 的 方法 也 有 显著 提升 。	1<2	joint	joint
nlpabs91_Chi	1-12	78-91	古代 汉 语 是 中国 语言 文学 专业 的 核心 课程 ,	提出 了 古代 汉 语 教材 词汇 教学 预期 成效 的 计算 方法 ,	1-40	41-174	古代 汉 语 是 中国 语言 文学 专业 的 核心 课程 , 然而 现有 教材 编写 在 篇章 选择 、 内容 编排 和 知识 点 取舍 上 多 基 于 主观 经验 , 教学 成 效难 以 量化 评估 。	该 文 基 于 先秦 典型 文献 的 词汇 现象 的 频率 、 重要 程度 以及 古今 词义 的 差异 , 讨论 了 面向 古代 汉 语 教学 的 词汇 知识 点 语料 库 的 建设 , 提出 了 古代 汉 语 教材 词汇 教学 预期 成效 的 计算 方法 , 并 以 王 力 主编 《 古代 汉 语 》 和 王 硕 编著 《 汉 语 古文 读本 》 两 种 性质 不同 、 文选 编排 顺序 不同 的 教材 作 为 个案 , 对比 分析 了 两 部 教材 的 篇幅 、 知识 点 分布 和 学习 曲线 , 从 量化 数据 上 佐证 了 学界 对 两 种 不同 性质 教材 的 定性 认识 , 同时 也 证明 所 提出 的 教材 预期 成效 评估 方法 的 合理 性 。	1>2	bg-general	bg-general
nlpabs91_Chi	1-12	13-33	古代 汉 语 是 中国 语言 文学 专业 的 核心 课程 ,	然而 现有 教材 编写 在 篇章 选择 、 内容 编排 和 知识 点 取舍 上 多 基 于 主观 经验 ,	1-40	1-40	古代 汉 语 是 中国 语言 文学 专业 的 核心 课程 , 然而 现有 教材 编写 在 篇章 选择 、 内容 编排 和 知识 点 取舍 上 多 基 于 主观 经验 , 教学 成 效难 以 量化 评估 。	古代 汉 语 是 中国 语言 文学 专业 的 核心 课程 , 然而 现有 教材 编写 在 篇章 选择 、 内容 编排 和 知识 点 取舍 上 多 基 于 主观 经验 , 教学 成 效难 以 量化 评估 。	1<2	elab-addition	elab-addition
nlpabs91_Chi	13-33	34-40	然而 现有 教材 编写 在 篇章 选择 、 内容 编排 和 知识 点 取舍 上 多 基 于 主观 经验 ,	教学 成 效难 以 量化 评估 。	1-40	1-40	古代 汉 语 是 中国 语言 文学 专业 的 核心 课程 , 然而 现有 教材 编写 在 篇章 选择 、 内容 编排 和 知识 点 取舍 上 多 基 于 主观 经验 , 教学 成 效难 以 量化 评估 。	古代 汉 语 是 中国 语言 文学 专业 的 核心 课程 , 然而 现有 教材 编写 在 篇章 选择 、 内容 编排 和 知识 点 取舍 上 多 基 于 主观 经验 , 教学 成 效难 以 量化 评估 。	1<2	elab-addition	elab-addition
nlpabs91_Chi	41-61	78-91	该 文 基 于 先秦 典型 文献 的 词汇 现象 的 频率 、 重要 程度 以及 古今 词义 的 差异 ,	提出 了 古代 汉 语 教材 词汇 教学 预期 成效 的 计算 方法 ,	41-174	41-174	该 文 基 于 先秦 典型 文献 的 词汇 现象 的 频率 、 重要 程度 以及 古今 词义 的 差异 , 讨论 了 面向 古代 汉 语 教学 的 词汇 知识 点 语料 库 的 建设 , 提出 了 古代 汉 语 教材 词汇 教学 预期 成效 的 计算 方法 , 并 以 王 力 主编 《 古代 汉 语 》 和 王 硕 编著 《 汉 语 古文 读本 》 两 种 性质 不同 、 文选 编排 顺序 不同 的 教材 作 为 个案 , 对比 分析 了 两 部 教材 的 篇幅 、 知识 点 分布 和 学习 曲线 , 从 量化 数据 上 佐证 了 学界 对 两 种 不同 性质 教材 的 定性 认识 , 同时 也 证明 所 提出 的 教材 预期 成效 评估 方法 的 合理 性 。	该 文 基 于 先秦 典型 文献 的 词汇 现象 的 频率 、 重要 程度 以及 古今 词义 的 差异 , 讨论 了 面向 古代 汉 语 教学 的 词汇 知识 点 语料 库 的 建设 , 提出 了 古代 汉 语 教材 词汇 教学 预期 成效 的 计算 方法 , 并 以 王 力 主编 《 古代 汉 语 》 和 王 硕 编著 《 汉 语 古文 读本 》 两 种 性质 不同 、 文选 编排 顺序 不同 的 教材 作 为 个案 , 对比 分析 了 两 部 教材 的 篇幅 、 知识 点 分布 和 学习 曲线 , 从 量化 数据 上 佐证 了 学界 对 两 种 不同 性质 教材 的 定性 认识 , 同时 也 证明 所 提出 的 教材 预期 成效 评估 方法 的 合理 性 。	1>2	manner-means	manner-means
nlpabs91_Chi	41-61	62-77	该 文 基 于 先秦 典型 文献 的 词汇 现象 的 频率 、 重要 程度 以及 古今 词义 的 差异 ,	讨论 了 面向 古代 汉 语 教学 的 词汇 知识 点 语料 库 的 建设 ,	41-174	41-174	该 文 基 于 先秦 典型 文献 的 词汇 现象 的 频率 、 重要 程度 以及 古今 词义 的 差异 , 讨论 了 面向 古代 汉 语 教学 的 词汇 知识 点 语料 库 的 建设 , 提出 了 古代 汉 语 教材 词汇 教学 预期 成效 的 计算 方法 , 并 以 王 力 主编 《 古代 汉 语 》 和 王 硕 编著 《 汉 语 古文 读本 》 两 种 性质 不同 、 文选 编排 顺序 不同 的 教材 作 为 个案 , 对比 分析 了 两 部 教材 的 篇幅 、 知识 点 分布 和 学习 曲线 , 从 量化 数据 上 佐证 了 学界 对 两 种 不同 性质 教材 的 定性 认识 , 同时 也 证明 所 提出 的 教材 预期 成效 评估 方法 的 合理 性 。	该 文 基 于 先秦 典型 文献 的 词汇 现象 的 频率 、 重要 程度 以及 古今 词义 的 差异 , 讨论 了 面向 古代 汉 语 教学 的 词汇 知识 点 语料 库 的 建设 , 提出 了 古代 汉 语 教材 词汇 教学 预期 成效 的 计算 方法 , 并 以 王 力 主编 《 古代 汉 语 》 和 王 硕 编著 《 汉 语 古文 读本 》 两 种 性质 不同 、 文选 编排 顺序 不同 的 教材 作 为 个案 , 对比 分析 了 两 部 教材 的 篇幅 、 知识 点 分布 和 学习 曲线 , 从 量化 数据 上 佐证 了 学界 对 两 种 不同 性质 教材 的 定性 认识 , 同时 也 证明 所 提出 的 教材 预期 成效 评估 方法 的 合理 性 。	1<2	joint	joint
nlpabs91_Chi	78-91	92-126	提出 了 古代 汉 语 教材 词汇 教学 预期 成效 的 计算 方法 ,	并 以 王 力 主编 《 古代 汉 语 》 和 王 硕 编著 《 汉 语 古文 读本 》 两 种 性质 不同 、 文选 编排 顺序 不同 的 教材 作 为 个案 ,	41-174	41-174	该 文 基 于 先秦 典型 文献 的 词汇 现象 的 频率 、 重要 程度 以及 古今 词义 的 差异 , 讨论 了 面向 古代 汉 语 教学 的 词汇 知识 点 语料 库 的 建设 , 提出 了 古代 汉 语 教材 词汇 教学 预期 成效 的 计算 方法 , 并 以 王 力 主编 《 古代 汉 语 》 和 王 硕 编著 《 汉 语 古文 读本 》 两 种 性质 不同 、 文选 编排 顺序 不同 的 教材 作 为 个案 , 对比 分析 了 两 部 教材 的 篇幅 、 知识 点 分布 和 学习 曲线 , 从 量化 数据 上 佐证 了 学界 对 两 种 不同 性质 教材 的 定性 认识 , 同时 也 证明 所 提出 的 教材 预期 成效 评估 方法 的 合理 性 。	该 文 基 于 先秦 典型 文献 的 词汇 现象 的 频率 、 重要 程度 以及 古今 词义 的 差异 , 讨论 了 面向 古代 汉 语 教学 的 词汇 知识 点 语料 库 的 建设 , 提出 了 古代 汉 语 教材 词汇 教学 预期 成效 的 计算 方法 , 并 以 王 力 主编 《 古代 汉 语 》 和 王 硕 编著 《 汉 语 古文 读本 》 两 种 性质 不同 、 文选 编排 顺序 不同 的 教材 作 为 个案 , 对比 分析 了 两 部 教材 的 篇幅 、 知识 点 分布 和 学习 曲线 , 从 量化 数据 上 佐证 了 学界 对 两 种 不同 性质 教材 的 定性 认识 , 同时 也 证明 所 提出 的 教材 预期 成效 评估 方法 的 合理 性 。	1<2	joint	joint
nlpabs91_Chi	92-126	127-142	并 以 王 力 主编 《 古代 汉 语 》 和 王 硕 编著 《 汉 语 古文 读本 》 两 种 性质 不同 、 文选 编排 顺序 不同 的 教材 作 为 个案 ,	对比 分析 了 两 部 教材 的 篇幅 、 知识 点 分布 和 学习 曲线 ,	41-174	41-174	该 文 基 于 先秦 典型 文献 的 词汇 现象 的 频率 、 重要 程度 以及 古今 词义 的 差异 , 讨论 了 面向 古代 汉 语 教学 的 词汇 知识 点 语料 库 的 建设 , 提出 了 古代 汉 语 教材 词汇 教学 预期 成效 的 计算 方法 , 并 以 王 力 主编 《 古代 汉 语 》 和 王 硕 编著 《 汉 语 古文 读本 》 两 种 性质 不同 、 文选 编排 顺序 不同 的 教材 作 为 个案 , 对比 分析 了 两 部 教材 的 篇幅 、 知识 点 分布 和 学习 曲线 , 从 量化 数据 上 佐证 了 学界 对 两 种 不同 性质 教材 的 定性 认识 , 同时 也 证明 所 提出 的 教材 预期 成效 评估 方法 的 合理 性 。	该 文 基 于 先秦 典型 文献 的 词汇 现象 的 频率 、 重要 程度 以及 古今 词义 的 差异 , 讨论 了 面向 古代 汉 语 教学 的 词汇 知识 点 语料 库 的 建设 , 提出 了 古代 汉 语 教材 词汇 教学 预期 成效 的 计算 方法 , 并 以 王 力 主编 《 古代 汉 语 》 和 王 硕 编著 《 汉 语 古文 读本 》 两 种 性质 不同 、 文选 编排 顺序 不同 的 教材 作 为 个案 , 对比 分析 了 两 部 教材 的 篇幅 、 知识 点 分布 和 学习 曲线 , 从 量化 数据 上 佐证 了 学界 对 两 种 不同 性质 教材 的 定性 认识 , 同时 也 证明 所 提出 的 教材 预期 成效 评估 方法 的 合理 性 。	1<2	elab-addition	elab-addition
nlpabs91_Chi	127-142	143-159	对比 分析 了 两 部 教材 的 篇幅 、 知识 点 分布 和 学习 曲线 ,	从 量化 数据 上 佐证 了 学界 对 两 种 不同 性质 教材 的 定性 认识 ,	41-174	41-174	该 文 基 于 先秦 典型 文献 的 词汇 现象 的 频率 、 重要 程度 以及 古今 词义 的 差异 , 讨论 了 面向 古代 汉 语 教学 的 词汇 知识 点 语料 库 的 建设 , 提出 了 古代 汉 语 教材 词汇 教学 预期 成效 的 计算 方法 , 并 以 王 力 主编 《 古代 汉 语 》 和 王 硕 编著 《 汉 语 古文 读本 》 两 种 性质 不同 、 文选 编排 顺序 不同 的 教材 作 为 个案 , 对比 分析 了 两 部 教材 的 篇幅 、 知识 点 分布 和 学习 曲线 , 从 量化 数据 上 佐证 了 学界 对 两 种 不同 性质 教材 的 定性 认识 , 同时 也 证明 所 提出 的 教材 预期 成效 评估 方法 的 合理 性 。	该 文 基 于 先秦 典型 文献 的 词汇 现象 的 频率 、 重要 程度 以及 古今 词义 的 差异 , 讨论 了 面向 古代 汉 语 教学 的 词汇 知识 点 语料 库 的 建设 , 提出 了 古代 汉 语 教材 词汇 教学 预期 成效 的 计算 方法 , 并 以 王 力 主编 《 古代 汉 语 》 和 王 硕 编著 《 汉 语 古文 读本 》 两 种 性质 不同 、 文选 编排 顺序 不同 的 教材 作 为 个案 , 对比 分析 了 两 部 教材 的 篇幅 、 知识 点 分布 和 学习 曲线 , 从 量化 数据 上 佐证 了 学界 对 两 种 不同 性质 教材 的 定性 认识 , 同时 也 证明 所 提出 的 教材 预期 成效 评估 方法 的 合理 性 。	1<2	elab-addition	elab-addition
nlpabs91_Chi	143-159	160-174	从 量化 数据 上 佐证 了 学界 对 两 种 不同 性质 教材 的 定性 认识 ,	同时 也 证明 所 提出 的 教材 预期 成效 评估 方法 的 合理 性 。	41-174	41-174	该 文 基 于 先秦 典型 文献 的 词汇 现象 的 频率 、 重要 程度 以及 古今 词义 的 差异 , 讨论 了 面向 古代 汉 语 教学 的 词汇 知识 点 语料 库 的 建设 , 提出 了 古代 汉 语 教材 词汇 教学 预期 成效 的 计算 方法 , 并 以 王 力 主编 《 古代 汉 语 》 和 王 硕 编著 《 汉 语 古文 读本 》 两 种 性质 不同 、 文选 编排 顺序 不同 的 教材 作 为 个案 , 对比 分析 了 两 部 教材 的 篇幅 、 知识 点 分布 和 学习 曲线 , 从 量化 数据 上 佐证 了 学界 对 两 种 不同 性质 教材 的 定性 认识 , 同时 也 证明 所 提出 的 教材 预期 成效 评估 方法 的 合理 性 。	该 文 基 于 先秦 典型 文献 的 词汇 现象 的 频率 、 重要 程度 以及 古今 词义 的 差异 , 讨论 了 面向 古代 汉 语 教学 的 词汇 知识 点 语料 库 的 建设 , 提出 了 古代 汉 语 教材 词汇 教学 预期 成效 的 计算 方法 , 并 以 王 力 主编 《 古代 汉 语 》 和 王 硕 编著 《 汉 语 古文 读本 》 两 种 性质 不同 、 文选 编排 顺序 不同 的 教材 作 为 个案 , 对比 分析 了 两 部 教材 的 篇幅 、 知识 点 分布 和 学习 曲线 , 从 量化 数据 上 佐证 了 学界 对 两 种 不同 性质 教材 的 定性 认识 , 同时 也 证明 所 提出 的 教材 预期 成效 评估 方法 的 合理 性 。	1<2	joint	joint
nlpabs91_Chi	127-142	175-184	对比 分析 了 两 部 教材 的 篇幅 、 知识 点 分布 和 学习 曲线 ,	进 一 步 讨论 了 文选 的 重新 排序 ,	41-174	175-195	该 文 基 于 先秦 典型 文献 的 词汇 现象 的 频率 、 重要 程度 以及 古今 词义 的 差异 , 讨论 了 面向 古代 汉 语 教学 的 词汇 知识 点 语料 库 的 建设 , 提出 了 古代 汉 语 教材 词汇 教学 预期 成效 的 计算 方法 , 并 以 王 力 主编 《 古代 汉 语 》 和 王 硕 编著 《 汉 语 古文 读本 》 两 种 性质 不同 、 文选 编排 顺序 不同 的 教材 作 为 个案 , 对比 分析 了 两 部 教材 的 篇幅 、 知识 点 分布 和 学习 曲线 , 从 量化 数据 上 佐证 了 学界 对 两 种 不同 性质 教材 的 定性 认识 , 同时 也 证明 所 提出 的 教材 预期 成效 评估 方法 的 合理 性 。	进 一 步 讨论 了 文选 的 重新 排序 , 获得 了 更加 符合 循序渐进 教学 过程 的 学习 曲线 。	1<2	progression	progression
nlpabs91_Chi	175-184	185-195	进 一 步 讨论 了 文选 的 重新 排序 ,	获得 了 更加 符合 循序渐进 教学 过程 的 学习 曲线 。	175-195	175-195	进 一 步 讨论 了 文选 的 重新 排序 , 获得 了 更加 符合 循序渐进 教学 过程 的 学习 曲线 。	进 一 步 讨论 了 文选 的 重新 排序 , 获得 了 更加 符合 循序渐进 教学 过程 的 学习 曲线 。	1<2	enablement	enablement
nlpabs91_Chi	78-91	196-217	提出 了 古代 汉 语 教材 词汇 教学 预期 成效 的 计算 方法 ,	基 于 语料 库 的 古代 汉 语 教材 预期 成效 评估 方法 不仅 为 教材 评估 提供 了 量化 方法 ,	41-174	196-239	该 文 基 于 先秦 典型 文献 的 词汇 现象 的 频率 、 重要 程度 以及 古今 词义 的 差异 , 讨论 了 面向 古代 汉 语 教学 的 词汇 知识 点 语料 库 的 建设 , 提出 了 古代 汉 语 教材 词汇 教学 预期 成效 的 计算 方法 , 并 以 王 力 主编 《 古代 汉 语 》 和 王 硕 编著 《 汉 语 古文 读本 》 两 种 性质 不同 、 文选 编排 顺序 不同 的 教材 作 为 个案 , 对比 分析 了 两 部 教材 的 篇幅 、 知识 点 分布 和 学习 曲线 , 从 量化 数据 上 佐证 了 学界 对 两 种 不同 性质 教材 的 定性 认识 , 同时 也 证明 所 提出 的 教材 预期 成效 评估 方法 的 合理 性 。	基 于 语料 库 的 古代 汉 语 教材 预期 成效 评估 方法 不仅 为 教材 评估 提供 了 量化 方法 , 也 为 成效 导向 教学 在 古代 汉 语 课程 的 应用 提供 了 探索 性 的 思路 和 基础 数据 。	1<2	elab-addition	elab-addition
nlpabs91_Chi	196-217	218-239	基 于 语料 库 的 古代 汉 语 教材 预期 成效 评估 方法 不仅 为 教材 评估 提供 了 量化 方法 ,	也 为 成效 导向 教学 在 古代 汉 语 课程 的 应用 提供 了 探索 性 的 思路 和 基础 数据 。	196-239	196-239	基 于 语料 库 的 古代 汉 语 教材 预期 成效 评估 方法 不仅 为 教材 评估 提供 了 量化 方法 , 也 为 成效 导向 教学 在 古代 汉 语 课程 的 应用 提供 了 探索 性 的 思路 和 基础 数据 。	基 于 语料 库 的 古代 汉 语 教材 预期 成效 评估 方法 不仅 为 教材 评估 提供 了 量化 方法 , 也 为 成效 导向 教学 在 古代 汉 语 课程 的 应用 提供 了 探索 性 的 思路 和 基础 数据 。	1<2	joint	joint