|
--- |
|
license: mit |
|
--- |
|
# 模型名称 |
|
PROTECT: Parameter-Efficient Tuning for Few-Shot Robust Chinese Text Correction |
|
|
|
# 模型开发者 |
|
Xuan Feng (Ph.D. candidate, Jinan University) |
|
|
|
Tianlong Gu (Professor, Jinan University) |
|
|
|
Liang Chang (Professor, Guilin University of Electronic Technology) |
|
|
|
Xiaoli Liu (Associate Professor, Jinan University) |
|
|
|
# 模型概述 |
|
PROTECT 是一种先进的中文文本校正模型,专为在少量样本情况下的鲁棒性文本校正而设计。该模型能够自动检测并纠正句子中的错误,包括但不限于拼音错误、视觉错误和故意的文字攻击。 |
|
|
|
# 模型功能 |
|
检测和纠正非规范文本和网络用语 |
|
|
|
抵御对抗性攻击,增强内容审核的鲁棒性 |
|
|
|
支持多种文本错误的校正,包括完美拼音、缩写拼音、字符分割、视觉和语音错误 |
|
|
|
# 模型性能 |
|
在全数据和低资源设置下均展现出最佳性能 |
|
|
|
通过仅调整0.2%的参数实现零样本和少样本学习 |
|
|
|
# 模型架构 |
|
对抗感知的多特征表示方法 |
|
|
|
上下文特定自适应前缀(Context-specific Adaptive Prefix, CAP) |
|
|
|
语义一致低秩适应模块(Semantic-consistent Low-rank Adaptation, SLA) |
|
|
|
# 使用场景 |
|
社交媒体内容审核 |
|
|
|
中文文本校正和拼写检查 |
|
|
|
对抗性文本攻击的防御 |