--- license: afl-3.0 language: - zh tags: - Chinese Spell Correction - csc - Chinese Spell Checking --- # ChienseBERT-for-csc 中文拼写纠错(Chinese Spell Checking, CSC)模型 该模型源于SCOPE论文的复现。 原论文为:https://arxiv.org/pdf/2210.10996.pdf 原论文官方代码为:https://github.com/jiahaozhenbang/SCOPE 本模型并没有完全复现作者的结果,最终效果比论文中差了一个点,具体原因可参考[#7](https://github.com/jiahaozhenbang/SCOPE/issues/7)。 本模型在SIGHAN2015上的表现如下: | | Detect-Acc | Detect-Precision | Detect-Recall | Detect-F1 | Correct-Acc | Correct-Precision | Correct-Recall | Correct-F1 | |--|--|--|--|--|--|--|--|--| | Chararcter-level | - | - | - | 87.16 | - | - | - | 91.39 | | Sentence-level | 86.27 | 79.75 | 82.99 | 81.34 | 85.45 | 78.15 | 81.33 | 79.71 | 若去掉SCOPE论文中在推理阶段使用的CIC,则在SIGHAN2015上表现如下: | | Detect-Acc | Detect-Precision | Detect-Recall | Detect-F1 | Correct-Acc | Correct-Precision | Correct-Recall | Correct-F1 | |--|--|--|--|--|--|--|--|--| | Chararcter-level | - | - | - | 86.46 | - | - | - | 91.13 | | Sentence-level | 85.36 | 78.19 | 82.44 | 80.22 | 85.55 | 76.53 | 80.78 | 78.60 | > 本模型非官方模型,将其中SCOPE部分的拼音辅助训练任务和损失函数计算等相关代码去掉,仅保留了ChineseBERT的部分。 # 模型使用方法 [![Open In Colab](https://colab.research.google.com/assets/colab-badge.svg)](https://colab.research.google.com/github/iioSnail/SCOPE/blob/main/ChineseBERT-for-csc_Demo.ipynb) ``` from transformers import AutoTokenizer, AutoModel tokenizer = AutoTokenizer.from_pretrained("iioSnail/ChineseBERT-for-csc", trust_remote_code=True) model = AutoModel.from_pretrained("iioSnail/ChineseBERT-for-csc", trust_remote_code=True) inputs = tokenizer(["我是炼习时长两念半的个人练习生蔡徐坤"], return_tensors='pt') output_hidden = model(**inputs).logits print(''.join(tokenizer.convert_ids_to_tokens(output_hidden.argmax(-1)[0, 1:-1]))) ``` 输出: ``` 我是练习时长两年半的个人练习生蔡徐坤 ``` 你也可以使用本模型封装的`predict`方法,其中封装了作者提出的CIC方法,可以解决连续错字问题。 ``` from transformers import AutoTokenizer, AutoModel tokenizer = AutoTokenizer.from_pretrained("iioSnail/ChineseBERT-for-csc", trust_remote_code=True) model = AutoModel.from_pretrained("iioSnail/ChineseBERT-for-csc", trust_remote_code=True) model.set_tokenizer(tokenizer) # 使用predict方法前,调用该方法 print(model.predict("我是练习时长两念半的鸽仁练习生蔡徐坤", window=0)) # 将窗口设置为0,不使用CIC print(model.predict("我是练习时长两念半的鸽仁练习生蔡徐坤")) # window默认为1,可以连续处理两个汉字 ``` 输出: ``` 我是练习时长两年半的鸽人练习生蔡徐坤 我是练习时长两年半的个人练习生蔡徐坤 ``` # 常见问题 1. 网络问题,例如:`Connection Error` 解决方案:将模型下载到本地使用。批量下载方案可参考该[博客](https://blog.csdn.net/zhaohongfei_358/article/details/126222999) 2. 将模型下载到本地使用时出现报错:`ModuleNotFoundError: No module named 'transformers_modules.iioSnail/ChineseBERT-for-csc'` 解决方案:将 `iioSnail/ChineseBERT-for-csc` 改为 `iioSnail\ChineseBERT-for-csc`