File size: 1,013 Bytes
ec77a75
 
 
 
 
 
 
 
 
 
 
fade1fa
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
ec77a75
d7d46ae
 
3016978
 
 
d7d46ae
 
 
 
4193808
 
 
 
 
d7d46ae
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
---
language: 
- code
pretty_name: "resume ner dataseet"
tags:
- ner
license: "bsd"
task_categories:
- token-classification
---

中文 resume ner 数据集, 来源: https://github.com/luopeixiang/named_entity_recognition 。

数据的格式如下,它的每一行由一个字及其对应的标注组成,标注集采用BIOES,句子之间用一个空行隔开。

```text
美	B-LOC
国	E-LOC
的	O
华	B-PER
莱	I-PER
士	E-PER

我	O
跟	O
他	O
谈	O
笑	O
风	O
生	O 
```

# 效果 
## 不同模型的效果对比:

<img src="https://file.ddot.cc/imagehost/2023/8bb93212-5812-4211-91b8-7a6bda841e1b.png">

## Bert-tiny 结果
|model | precision | recall | f1-score | support |
|---|---|---|---|---|
|BERT-tiny | 0.9490 | 0.9538 | 0.9447 | 全部 |
|BERT-tiny | 0.9278 | 0.9251 | 0.9313 | 使用 100 train |

注:
- 后面再测试,BERT-tiny(softmax) + 100 训练样本,暂时没有复现 0.9313 的结果,最好结果 0.8612
- BERT-tiny + LSTM(softmax) + 100 样本,`val_f1` 可达 0.8737