Shuheng Liu commited on
Commit
2f76935
1 Parent(s): 298b2ad

Upload model

Browse files
.gitattributes CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ tokenizer.json filter=lfs diff=lfs merge=lfs -text
README.md ADDED
@@ -0,0 +1,87 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: mit
3
+ base_model: xlm-roberta-large
4
+ tags:
5
+ - generated_from_trainer
6
+ datasets:
7
+ - uner_qaf_ara
8
+ metrics:
9
+ - precision
10
+ - recall
11
+ - f1
12
+ - accuracy
13
+ model-index:
14
+ - name: uner_qaf_ara
15
+ results:
16
+ - task:
17
+ name: Token Classification
18
+ type: token-classification
19
+ dataset:
20
+ name: uner_qaf_ara
21
+ type: uner_qaf_ara
22
+ config: default
23
+ split: validation
24
+ args: default
25
+ metrics:
26
+ - name: Precision
27
+ type: precision
28
+ value: 0.7241379310344828
29
+ - name: Recall
30
+ type: recall
31
+ value: 0.7205882352941176
32
+ - name: F1
33
+ type: f1
34
+ value: 0.7223587223587223
35
+ - name: Accuracy
36
+ type: accuracy
37
+ value: 0.9547511312217195
38
+ ---
39
+
40
+ <!-- This model card has been generated automatically according to the information the Trainer had access to. You
41
+ should probably proofread and complete it, then remove this comment. -->
42
+
43
+ # uner_qaf_ara
44
+
45
+ This model is a fine-tuned version of [xlm-roberta-large](https://huggingface.co/xlm-roberta-large) on the uner_qaf_ara dataset.
46
+ It achieves the following results on the evaluation set:
47
+ - Loss: 0.1885
48
+ - Precision: 0.7241
49
+ - Recall: 0.7206
50
+ - F1: 0.7224
51
+ - Accuracy: 0.9548
52
+
53
+ ## Model description
54
+
55
+ More information needed
56
+
57
+ ## Intended uses & limitations
58
+
59
+ More information needed
60
+
61
+ ## Training and evaluation data
62
+
63
+ More information needed
64
+
65
+ ## Training procedure
66
+
67
+ ### Training hyperparameters
68
+
69
+ The following hyperparameters were used during training:
70
+ - learning_rate: 3e-05
71
+ - train_batch_size: 16
72
+ - eval_batch_size: 16
73
+ - seed: 42
74
+ - optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
75
+ - lr_scheduler_type: linear
76
+ - num_epochs: 5.0
77
+
78
+ ### Training results
79
+
80
+
81
+
82
+ ### Framework versions
83
+
84
+ - Transformers 4.31.0
85
+ - Pytorch 1.10.1+cu113
86
+ - Datasets 2.14.4
87
+ - Tokenizers 0.13.3
all_results.json ADDED
@@ -0,0 +1,25 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "epoch": 5.0,
3
+ "eval_accuracy": 0.9547511312217195,
4
+ "eval_f1": 0.7223587223587223,
5
+ "eval_loss": 0.18850649893283844,
6
+ "eval_precision": 0.7241379310344828,
7
+ "eval_recall": 0.7205882352941176,
8
+ "eval_runtime": 0.4056,
9
+ "eval_samples": 140,
10
+ "eval_samples_per_second": 345.174,
11
+ "eval_steps_per_second": 22.19,
12
+ "predict_accuracy": 0.9545663148233134,
13
+ "predict_f1": 0.7088607594936709,
14
+ "predict_loss": 0.1624361276626587,
15
+ "predict_precision": 0.6965174129353234,
16
+ "predict_recall": 0.7216494845360825,
17
+ "predict_runtime": 0.4848,
18
+ "predict_samples_per_second": 301.185,
19
+ "predict_steps_per_second": 20.629,
20
+ "train_loss": 0.23982335650731648,
21
+ "train_runtime": 63.3537,
22
+ "train_samples": 1004,
23
+ "train_samples_per_second": 79.238,
24
+ "train_steps_per_second": 4.972
25
+ }
config.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "xlm-roberta-large",
3
+ "architectures": [
4
+ "XLMRobertaForTokenClassification"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "bos_token_id": 0,
8
+ "classifier_dropout": null,
9
+ "eos_token_id": 2,
10
+ "finetuning_task": "ner",
11
+ "hidden_act": "gelu",
12
+ "hidden_dropout_prob": 0.1,
13
+ "hidden_size": 1024,
14
+ "id2label": {
15
+ "0": "O",
16
+ "1": "B-PER",
17
+ "2": "I-PER",
18
+ "3": "B-ORG",
19
+ "4": "I-ORG",
20
+ "5": "B-LOC",
21
+ "6": "I-LOC",
22
+ "7": "B-OTH",
23
+ "8": "I-OTH"
24
+ },
25
+ "initializer_range": 0.02,
26
+ "intermediate_size": 4096,
27
+ "label2id": {
28
+ "B-LOC": 5,
29
+ "B-ORG": 3,
30
+ "B-OTH": 7,
31
+ "B-PER": 1,
32
+ "I-LOC": 6,
33
+ "I-ORG": 4,
34
+ "I-OTH": 8,
35
+ "I-PER": 2,
36
+ "O": 0
37
+ },
38
+ "layer_norm_eps": 1e-05,
39
+ "max_position_embeddings": 514,
40
+ "model_type": "xlm-roberta",
41
+ "num_attention_heads": 16,
42
+ "num_hidden_layers": 24,
43
+ "output_past": true,
44
+ "pad_token_id": 1,
45
+ "position_embedding_type": "absolute",
46
+ "torch_dtype": "float32",
47
+ "transformers_version": "4.31.0",
48
+ "type_vocab_size": 1,
49
+ "use_cache": true,
50
+ "vocab_size": 250002
51
+ }
eval_results.json ADDED
@@ -0,0 +1,12 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "epoch": 5.0,
3
+ "eval_accuracy": 0.9547511312217195,
4
+ "eval_f1": 0.7223587223587223,
5
+ "eval_loss": 0.18850649893283844,
6
+ "eval_precision": 0.7241379310344828,
7
+ "eval_recall": 0.7205882352941176,
8
+ "eval_runtime": 0.4056,
9
+ "eval_samples": 140,
10
+ "eval_samples_per_second": 345.174,
11
+ "eval_steps_per_second": 22.19
12
+ }
predict_results.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "predict_accuracy": 0.9545663148233134,
3
+ "predict_f1": 0.7088607594936709,
4
+ "predict_loss": 0.1624361276626587,
5
+ "predict_precision": 0.6965174129353234,
6
+ "predict_recall": 0.7216494845360825,
7
+ "predict_runtime": 0.4848,
8
+ "predict_samples_per_second": 301.185,
9
+ "predict_steps_per_second": 20.629
10
+ }
predictions.txt ADDED
@@ -0,0 +1,146 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ O
2
+ O O O O O O O O O O O O O O O O O O O O O
3
+ O O O O O O O O O O O O O B-LOC O O O O O O O O O O B-LOC O O O O O O O O O O O O O O O O O O B-PER O O O O O O O O O O O B-PER B-PER O O O O O B-PER
4
+ O O O O O O O O O O O O O O O
5
+ O O B-PER O O O O O O
6
+ O O B-PER O O O O O O O
7
+ B-PER O O O O O O O O O O B-PER O O O
8
+ O O O O O O O O B-PER O O O O O O
9
+ O O B-PER O O O O B-PER O
10
+ O O B-PER O O O B-PER
11
+ O O B-PER O O O B-LOC O O O
12
+ O O O O O O O O O O O O O
13
+ O O O B-PER O
14
+ O O O O O O O
15
+ B-PER O O O O O B-PER O
16
+ O O O O B-PER O B-LOC
17
+ O O O O O O O O O O O B-PER O O O B-LOC
18
+ O O O O O O O B-LOC O B-PER
19
+ O O O O O O O O O O O O O O O O O
20
+ O O O B-LOC O O B-LOC O O O O O O
21
+ B-ORG O O O O O O O O B-PER O O O O O O O O B-PER O O O
22
+ O O O B-ORG O O O O O O O O B-LOC
23
+ O O O O O O O O
24
+ O O O O O O B-PER O O O O O O O O
25
+ O O O O O O O
26
+ O O O O O O O
27
+ B-PER O O O O O O O O O O O O O O O B-PER O O
28
+ O O O O O O O O O O O O O B-LOC O O O O O O O O O O O
29
+ O O O O O B-LOC
30
+ O O O O O O O O O O O O O
31
+ O O O O O O
32
+ O O O O O O O O
33
+ O O O O O O O O
34
+ O O O
35
+ O O O O B-PER O O O O O B-PER O O O O B-LOC O O O O O O O O O O O O O O O O B-LOC O O O O B-PER O O O O O
36
+ O O B-PER O O O O O O O O O O
37
+ O O O O O O O O O O O O O O O O O O O O O B-LOC O O O O O O O O O O O O O O O O O O O O O O O O O O O
38
+ O O O O O O O O O O O O O O O O O O
39
+ O O O O O O O O O O O O O O B-LOC O O B-LOC O O O O O O
40
+ O O O O O O O O O O
41
+ O O O O O O O
42
+ O O O
43
+ O O B-LOC O O O
44
+ B-PER O O O O O O O B-PER O
45
+ O O O O B-LOC O O B-PER O
46
+ O O O B-LOC O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O B-PER O O O
47
+ B-PER O O O O O O O O O O O O O O O O O
48
+ O O O O O O O O O B-PER O O O B-ORG
49
+ O O O O O O O O O
50
+ O O O O
51
+ B-PER O O B-LOC O B-LOC
52
+ O O O O B-PER O O O O
53
+ B-PER O O O O O O O O O O O O O O B-ORG O O B-PER O O O O O O O
54
+ B-PER O O O B-PER O O O O O O O O O O B-PER O O
55
+ O B-PER O O O O O O O O O O O O O O O O O O O O O
56
+ O O O O O O O B-PER O O O O O O O O
57
+ O O O B-ORG O O O O O O O O O O O O O O O
58
+ B-PER O O O O O O
59
+ O O O O B-LOC O O O O O O O O
60
+ O O O O O O O
61
+ O O O B-PER O O O O O B-LOC
62
+ B-PER O O O O O O O O B-LOC O B-PER
63
+ O O B-LOC O O O B-PER B-LOC O O O O O B-ORG O O B-PER O O
64
+ O O O O O O O
65
+ O B-ORG O O O O O O
66
+ O O O B-LOC O O
67
+ O O O O O O O B-LOC O O O O O O O O O O
68
+ B-PER O O O O O O O O O O O O O O O O O O B-PER O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O
69
+ O O O O O O B-LOC O O O O O O
70
+ O O O O O O O O O O O O O O O O O O B-LOC
71
+ B-PER O O O B-PER O O B-PER O O B-PER O O O O O O O O O O O B-PER O O O
72
+ O O O O O B-PER O O O
73
+ O O O O O O O O O O O O O
74
+ B-PER O
75
+ O O B-PER O B-PER O O O O O B-LOC
76
+ O B-PER O O O
77
+ O O O O O B-ORG O O O O O O O O O O O
78
+ O O B-PER O O O O O O O O O B-LOC
79
+ O O O O O
80
+ O O B-LOC O O B-PER O B-PER O O
81
+ O O O O O O O O O O O O O
82
+ B-PER B-PER O O O O B-LOC B-LOC O O O O O B-ORG O O B-ORG O O B-ORG
83
+ O O O O O O
84
+ O O O O O O O O O O O O
85
+ O O O O O O O O O O B-PER O O O
86
+ O O B-PER O B-PER O O O O B-PER
87
+ O O O O O O O
88
+ O B-LOC O O B-LOC O O B-PER O O B-LOC
89
+ O O O O O O O
90
+ O O O O O B-PER B-PER O O O O O O O O O O O O B-PER O O
91
+ O O O O O B-LOC O O O O O O O O O O O O O O O O O O O O O O O O O O O O O B-PER O O O O O O O O O O
92
+ O O O O O O O O O O O O O O O
93
+ O O O O O O O O O O
94
+ B-PER O O O O
95
+ O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O B-PER O O O O O B-PER B-PER
96
+ O O O O B-LOC
97
+ O O O O O O O O O O O O O O
98
+ O O O B-PER O
99
+ O B-ORG O O O
100
+ O O O O O O O O O O O B-LOC O O O
101
+ O B-LOC O O O O O O O O O O O O O O O O O O O O O
102
+ B-PER O O O O O O
103
+ O O O O O O O O O O O O O
104
+ B-PER O O O O O O O O O O B-PER O O O
105
+ O O O O O
106
+ O O B-PER O O O O O O O O O O O O O O O O O O O O O O O O O O O O
107
+ O O O O O O O O O O O
108
+ O O O O O O O O O B-PER O O O O O O O B-LOC O
109
+ O O O O O O O O O
110
+ O O O O O B-LOC O O O O O
111
+ O O O O O O O B-ORG O O O O O O O O O O O O O
112
+ O O O O O O O O O O O
113
+ O O O O O O O O O O O O O O O O O
114
+ O O O O O O O O O B-LOC O O B-PER
115
+ O O O O O O O O O O O O O O O O O
116
+ O O O O O O O O O O O O O O O O
117
+ O O O O O O O O O O O O O O O O O O O
118
+ O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O B-PER O O B-PER B-PER I-PER O O O O B-PER O O O O O
119
+ O O B-PER O O O O O O O B-LOC O O O O O O O O O B-LOC O O O O O O B-LOC O
120
+ O O O O O O O
121
+ O O O O O O O O B-LOC O O O O O
122
+ O B-PER O O O O O O
123
+ O O O O O O O B-LOC O O O O O O
124
+ O O B-PER O O O O O O O O O O O O O O O O O O
125
+ O B-PER O B-PER O O O O O O O O O B-LOC O O
126
+ O O B-LOC O O O B-PER O
127
+ O O O O B-LOC O O O O O O O O O O O O O O O O O O O O O O O B-PER O O O B-PER O O O O O O O B-LOC O B-LOC
128
+ O B-PER O O B-PER O O O O O O O O O O O O O O O O O O O O
129
+ O O O O O O O B-LOC O O O O O O O O O O O O O O
130
+ B-PER O O O O O O O O O
131
+ O O O O O B-PER O O B-ORG O O B-LOC O B-PER O B-PER O O B-LOC O O O O O B-LOC O O B-PER O O O O
132
+ O O O O O O O O O
133
+ O O O B-ORG O B-PER B-PER O O B-LOC O O B-LOC
134
+ O B-ORG O B-LOC O O O O O O O O O O O B-LOC O B-LOC
135
+ B-PER O B-ORG O O O O O O O O O O O O O
136
+ O O O O O O O O O O O O O O O O
137
+ O O O O O O O
138
+ O O O B-LOC O O O B-LOC
139
+ O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O
140
+ B-PER O O O O O O O O O O O O O O O B-ORG O O O
141
+ O O O O O O O O O O O O B-LOC
142
+ O O O B-PER O
143
+ O O B-ORG B-PER O O O O B-PER O
144
+ O O O O O O O B-LOC O O O O O O O O
145
+ B-PER O O O O O O
146
+
pytorch_model.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:9a6857e4741c0ba5b72dd6efb4215033b3f941d9b39d44c06a73e6d22e1d7327
3
+ size 2235532275
special_tokens_map.json ADDED
@@ -0,0 +1,15 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": "<s>",
3
+ "cls_token": "<s>",
4
+ "eos_token": "</s>",
5
+ "mask_token": {
6
+ "content": "<mask>",
7
+ "lstrip": true,
8
+ "normalized": false,
9
+ "rstrip": false,
10
+ "single_word": false
11
+ },
12
+ "pad_token": "<pad>",
13
+ "sep_token": "</s>",
14
+ "unk_token": "<unk>"
15
+ }
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:f2c509a525eb51aebb33fb59c24ee923c1d4c1db23c3ae81fe05ccf354084f7b
3
+ size 17082758
tokenizer_config.json ADDED
@@ -0,0 +1,20 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "add_prefix_space": true,
3
+ "bos_token": "<s>",
4
+ "clean_up_tokenization_spaces": true,
5
+ "cls_token": "<s>",
6
+ "eos_token": "</s>",
7
+ "mask_token": {
8
+ "__type": "AddedToken",
9
+ "content": "<mask>",
10
+ "lstrip": true,
11
+ "normalized": true,
12
+ "rstrip": false,
13
+ "single_word": false
14
+ },
15
+ "model_max_length": 512,
16
+ "pad_token": "<pad>",
17
+ "sep_token": "</s>",
18
+ "tokenizer_class": "XLMRobertaTokenizer",
19
+ "unk_token": "<unk>"
20
+ }
train_results.json ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "epoch": 5.0,
3
+ "train_loss": 0.23982335650731648,
4
+ "train_runtime": 63.3537,
5
+ "train_samples": 1004,
6
+ "train_samples_per_second": 79.238,
7
+ "train_steps_per_second": 4.972
8
+ }
trainer_state.json ADDED
@@ -0,0 +1,25 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "best_metric": null,
3
+ "best_model_checkpoint": null,
4
+ "epoch": 5.0,
5
+ "global_step": 315,
6
+ "is_hyper_param_search": false,
7
+ "is_local_process_zero": true,
8
+ "is_world_process_zero": true,
9
+ "log_history": [
10
+ {
11
+ "epoch": 5.0,
12
+ "step": 315,
13
+ "total_flos": 723886236226368.0,
14
+ "train_loss": 0.23982335650731648,
15
+ "train_runtime": 63.3537,
16
+ "train_samples_per_second": 79.238,
17
+ "train_steps_per_second": 4.972
18
+ }
19
+ ],
20
+ "max_steps": 315,
21
+ "num_train_epochs": 5,
22
+ "total_flos": 723886236226368.0,
23
+ "trial_name": null,
24
+ "trial_params": null
25
+ }
training_args.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:062f04e13a442c0f379221b604343f41b6c41efd521770ce1b9e472bc7f4c23d
3
+ size 4015