DavidCorreas commited on
Commit
20de692
1 Parent(s): ed47955

Initial commit of the model

Browse files
all_results.json ADDED
@@ -0,0 +1,16 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "epoch": 7.64,
3
+ "eval_loss": 0.05236198380589485,
4
+ "eval_mean_accuracy": 0.999793267854512,
5
+ "eval_mean_iou": 0.9993052591243059,
6
+ "eval_overall_accuracy": 0.999793267854512,
7
+ "eval_runtime": 54.0862,
8
+ "eval_samples": 82,
9
+ "eval_samples_per_second": 1.516,
10
+ "eval_steps_per_second": 1.516,
11
+ "train_loss": 0.17318119727208145,
12
+ "train_runtime": 2340.6865,
13
+ "train_samples": 733,
14
+ "train_samples_per_second": 2.392,
15
+ "train_steps_per_second": 0.299
16
+ }
config.json ADDED
@@ -0,0 +1,67 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "/workspaces/ai-butlerhat/model/ciclozero",
3
+ "architectures": [
4
+ "AlfredUnimodelForConditionalGeneration"
5
+ ],
6
+ "d_ff": 4096,
7
+ "d_kv": 64,
8
+ "d_model": 1024,
9
+ "decoder_start_token_id": 0,
10
+ "dense_act_fn": "relu",
11
+ "dropout_rate": 0.1,
12
+ "eos_token_id": 1,
13
+ "feed_forward_proj": "relu",
14
+ "finetuning_task": "ner",
15
+ "image_size": 224,
16
+ "initializer_factor": 1.0,
17
+ "is_encoder_decoder": true,
18
+ "is_gated_act": false,
19
+ "keys_to_ignore_at_inference": [
20
+ "loss",
21
+ "past_key_values",
22
+ "decoder_hidden_states",
23
+ "decoder_attentions",
24
+ "cross_attentions",
25
+ "encoder_last_hidden_state",
26
+ "encoder_hidden_states",
27
+ "encoder_attentions"
28
+ ],
29
+ "layer_norm_epsilon": 1e-06,
30
+ "layernorm_type": "torch_LayerNorm",
31
+ "locked_dropout": 0.0,
32
+ "mae_checkpoint": "/workspaces/udop/i-Code-Doc/model/hf/mae_pretrain_vit_large_full.pth",
33
+ "mae_version": "mae_vit_large_patch16",
34
+ "max_2d_position_embeddings": 1024,
35
+ "max_bbox_length": 1001,
36
+ "max_context_weight": 1.0,
37
+ "max_pos_dropout": 0.0,
38
+ "max_position_embeddings": 512,
39
+ "model_type": "t5",
40
+ "n_positions": 512,
41
+ "num_decoder_layers": 24,
42
+ "num_heads": 16,
43
+ "num_layers": 24,
44
+ "output_past": true,
45
+ "pad_token_id": 0,
46
+ "relative_attention_max_distance": 128,
47
+ "relative_attention_num_buckets": 32,
48
+ "relative_bias_args": [
49
+ {
50
+ "type": "1d"
51
+ },
52
+ {
53
+ "type": "horizontal"
54
+ },
55
+ {
56
+ "type": "vertical"
57
+ }
58
+ ],
59
+ "syncbn_type": "torch_SyncBatchNorm",
60
+ "torch_dtype": "float32",
61
+ "transformers_version": "4.30.2",
62
+ "truncate_decoder_after_layer": null,
63
+ "truncate_encoder_after_layer": null,
64
+ "use_cache": true,
65
+ "vocab_size": 33201,
66
+ "word_dropout": 0.0
67
+ }
eval_results.json ADDED
@@ -0,0 +1,11 @@
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "epoch": 7.64,
3
+ "eval_loss": 0.05236198380589485,
4
+ "eval_mean_accuracy": 0.999793267854512,
5
+ "eval_mean_iou": 0.9993052591243059,
6
+ "eval_overall_accuracy": 0.999793267854512,
7
+ "eval_runtime": 54.0862,
8
+ "eval_samples": 82,
9
+ "eval_samples_per_second": 1.516,
10
+ "eval_steps_per_second": 1.516
11
+ }
generation_config.json ADDED
@@ -0,0 +1,7 @@
 
 
 
 
 
 
 
 
1
+ {
2
+ "_from_model_config": true,
3
+ "decoder_start_token_id": 0,
4
+ "eos_token_id": 1,
5
+ "pad_token_id": 0,
6
+ "transformers_version": "4.30.2"
7
+ }
pytorch_model.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:57467dbb27b036acb437c5556467c615b498ef958a6eeb9e7709a546c2779afb
3
+ size 2967605286
special_tokens_map.json ADDED
@@ -0,0 +1,1208 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "additional_special_tokens": [
3
+ "<extra_id_0>",
4
+ "<extra_id_1>",
5
+ "<extra_id_2>",
6
+ "<extra_id_3>",
7
+ "<extra_id_4>",
8
+ "<extra_id_5>",
9
+ "<extra_id_6>",
10
+ "<extra_id_7>",
11
+ "<extra_id_8>",
12
+ "<extra_id_9>",
13
+ "<extra_id_10>",
14
+ "<extra_id_11>",
15
+ "<extra_id_12>",
16
+ "<extra_id_13>",
17
+ "<extra_id_14>",
18
+ "<extra_id_15>",
19
+ "<extra_id_16>",
20
+ "<extra_id_17>",
21
+ "<extra_id_18>",
22
+ "<extra_id_19>",
23
+ "<extra_id_20>",
24
+ "<extra_id_21>",
25
+ "<extra_id_22>",
26
+ "<extra_id_23>",
27
+ "<extra_id_24>",
28
+ "<extra_id_25>",
29
+ "<extra_id_26>",
30
+ "<extra_id_27>",
31
+ "<extra_id_28>",
32
+ "<extra_id_29>",
33
+ "<extra_id_30>",
34
+ "<extra_id_31>",
35
+ "<extra_id_32>",
36
+ "<extra_id_33>",
37
+ "<extra_id_34>",
38
+ "<extra_id_35>",
39
+ "<extra_id_36>",
40
+ "<extra_id_37>",
41
+ "<extra_id_38>",
42
+ "<extra_id_39>",
43
+ "<extra_id_40>",
44
+ "<extra_id_41>",
45
+ "<extra_id_42>",
46
+ "<extra_id_43>",
47
+ "<extra_id_44>",
48
+ "<extra_id_45>",
49
+ "<extra_id_46>",
50
+ "<extra_id_47>",
51
+ "<extra_id_48>",
52
+ "<extra_id_49>",
53
+ "<extra_id_50>",
54
+ "<extra_id_51>",
55
+ "<extra_id_52>",
56
+ "<extra_id_53>",
57
+ "<extra_id_54>",
58
+ "<extra_id_55>",
59
+ "<extra_id_56>",
60
+ "<extra_id_57>",
61
+ "<extra_id_58>",
62
+ "<extra_id_59>",
63
+ "<extra_id_60>",
64
+ "<extra_id_61>",
65
+ "<extra_id_62>",
66
+ "<extra_id_63>",
67
+ "<extra_id_64>",
68
+ "<extra_id_65>",
69
+ "<extra_id_66>",
70
+ "<extra_id_67>",
71
+ "<extra_id_68>",
72
+ "<extra_id_69>",
73
+ "<extra_id_70>",
74
+ "<extra_id_71>",
75
+ "<extra_id_72>",
76
+ "<extra_id_73>",
77
+ "<extra_id_74>",
78
+ "<extra_id_75>",
79
+ "<extra_id_76>",
80
+ "<extra_id_77>",
81
+ "<extra_id_78>",
82
+ "<extra_id_79>",
83
+ "<extra_id_80>",
84
+ "<extra_id_81>",
85
+ "<extra_id_82>",
86
+ "<extra_id_83>",
87
+ "<extra_id_84>",
88
+ "<extra_id_85>",
89
+ "<extra_id_86>",
90
+ "<extra_id_87>",
91
+ "<extra_id_88>",
92
+ "<extra_id_89>",
93
+ "<extra_id_90>",
94
+ "<extra_id_91>",
95
+ "<extra_id_92>",
96
+ "<extra_id_93>",
97
+ "<extra_id_94>",
98
+ "<extra_id_95>",
99
+ "<extra_id_96>",
100
+ "<extra_id_97>",
101
+ "<extra_id_98>",
102
+ "<extra_id_99>",
103
+ "<extra_l_id_0>",
104
+ "<extra_l_id_1>",
105
+ "<extra_l_id_2>",
106
+ "<extra_l_id_3>",
107
+ "<extra_l_id_4>",
108
+ "<extra_l_id_5>",
109
+ "<extra_l_id_6>",
110
+ "<extra_l_id_7>",
111
+ "<extra_l_id_8>",
112
+ "<extra_l_id_9>",
113
+ "<extra_l_id_10>",
114
+ "<extra_l_id_11>",
115
+ "<extra_l_id_12>",
116
+ "<extra_l_id_13>",
117
+ "<extra_l_id_14>",
118
+ "<extra_l_id_15>",
119
+ "<extra_l_id_16>",
120
+ "<extra_l_id_17>",
121
+ "<extra_l_id_18>",
122
+ "<extra_l_id_19>",
123
+ "<extra_l_id_20>",
124
+ "<extra_l_id_21>",
125
+ "<extra_l_id_22>",
126
+ "<extra_l_id_23>",
127
+ "<extra_l_id_24>",
128
+ "<extra_l_id_25>",
129
+ "<extra_l_id_26>",
130
+ "<extra_l_id_27>",
131
+ "<extra_l_id_28>",
132
+ "<extra_l_id_29>",
133
+ "<extra_l_id_30>",
134
+ "<extra_l_id_31>",
135
+ "<extra_l_id_32>",
136
+ "<extra_l_id_33>",
137
+ "<extra_l_id_34>",
138
+ "<extra_l_id_35>",
139
+ "<extra_l_id_36>",
140
+ "<extra_l_id_37>",
141
+ "<extra_l_id_38>",
142
+ "<extra_l_id_39>",
143
+ "<extra_l_id_40>",
144
+ "<extra_l_id_41>",
145
+ "<extra_l_id_42>",
146
+ "<extra_l_id_43>",
147
+ "<extra_l_id_44>",
148
+ "<extra_l_id_45>",
149
+ "<extra_l_id_46>",
150
+ "<extra_l_id_47>",
151
+ "<extra_l_id_48>",
152
+ "<extra_l_id_49>",
153
+ "<extra_l_id_50>",
154
+ "<extra_l_id_51>",
155
+ "<extra_l_id_52>",
156
+ "<extra_l_id_53>",
157
+ "<extra_l_id_54>",
158
+ "<extra_l_id_55>",
159
+ "<extra_l_id_56>",
160
+ "<extra_l_id_57>",
161
+ "<extra_l_id_58>",
162
+ "<extra_l_id_59>",
163
+ "<extra_l_id_60>",
164
+ "<extra_l_id_61>",
165
+ "<extra_l_id_62>",
166
+ "<extra_l_id_63>",
167
+ "<extra_l_id_64>",
168
+ "<extra_l_id_65>",
169
+ "<extra_l_id_66>",
170
+ "<extra_l_id_67>",
171
+ "<extra_l_id_68>",
172
+ "<extra_l_id_69>",
173
+ "<extra_l_id_70>",
174
+ "<extra_l_id_71>",
175
+ "<extra_l_id_72>",
176
+ "<extra_l_id_73>",
177
+ "<extra_l_id_74>",
178
+ "<extra_l_id_75>",
179
+ "<extra_l_id_76>",
180
+ "<extra_l_id_77>",
181
+ "<extra_l_id_78>",
182
+ "<extra_l_id_79>",
183
+ "<extra_l_id_80>",
184
+ "<extra_l_id_81>",
185
+ "<extra_l_id_82>",
186
+ "<extra_l_id_83>",
187
+ "<extra_l_id_84>",
188
+ "<extra_l_id_85>",
189
+ "<extra_l_id_86>",
190
+ "<extra_l_id_87>",
191
+ "<extra_l_id_88>",
192
+ "<extra_l_id_89>",
193
+ "<extra_l_id_90>",
194
+ "<extra_l_id_91>",
195
+ "<extra_l_id_92>",
196
+ "<extra_l_id_93>",
197
+ "<extra_l_id_94>",
198
+ "<extra_l_id_95>",
199
+ "<extra_l_id_96>",
200
+ "<extra_l_id_97>",
201
+ "<extra_l_id_98>",
202
+ "<extra_l_id_99>",
203
+ "</extra_l_id_0>",
204
+ "</extra_l_id_1>",
205
+ "</extra_l_id_2>",
206
+ "</extra_l_id_3>",
207
+ "</extra_l_id_4>",
208
+ "</extra_l_id_5>",
209
+ "</extra_l_id_6>",
210
+ "</extra_l_id_7>",
211
+ "</extra_l_id_8>",
212
+ "</extra_l_id_9>",
213
+ "</extra_l_id_10>",
214
+ "</extra_l_id_11>",
215
+ "</extra_l_id_12>",
216
+ "</extra_l_id_13>",
217
+ "</extra_l_id_14>",
218
+ "</extra_l_id_15>",
219
+ "</extra_l_id_16>",
220
+ "</extra_l_id_17>",
221
+ "</extra_l_id_18>",
222
+ "</extra_l_id_19>",
223
+ "</extra_l_id_20>",
224
+ "</extra_l_id_21>",
225
+ "</extra_l_id_22>",
226
+ "</extra_l_id_23>",
227
+ "</extra_l_id_24>",
228
+ "</extra_l_id_25>",
229
+ "</extra_l_id_26>",
230
+ "</extra_l_id_27>",
231
+ "</extra_l_id_28>",
232
+ "</extra_l_id_29>",
233
+ "</extra_l_id_30>",
234
+ "</extra_l_id_31>",
235
+ "</extra_l_id_32>",
236
+ "</extra_l_id_33>",
237
+ "</extra_l_id_34>",
238
+ "</extra_l_id_35>",
239
+ "</extra_l_id_36>",
240
+ "</extra_l_id_37>",
241
+ "</extra_l_id_38>",
242
+ "</extra_l_id_39>",
243
+ "</extra_l_id_40>",
244
+ "</extra_l_id_41>",
245
+ "</extra_l_id_42>",
246
+ "</extra_l_id_43>",
247
+ "</extra_l_id_44>",
248
+ "</extra_l_id_45>",
249
+ "</extra_l_id_46>",
250
+ "</extra_l_id_47>",
251
+ "</extra_l_id_48>",
252
+ "</extra_l_id_49>",
253
+ "</extra_l_id_50>",
254
+ "</extra_l_id_51>",
255
+ "</extra_l_id_52>",
256
+ "</extra_l_id_53>",
257
+ "</extra_l_id_54>",
258
+ "</extra_l_id_55>",
259
+ "</extra_l_id_56>",
260
+ "</extra_l_id_57>",
261
+ "</extra_l_id_58>",
262
+ "</extra_l_id_59>",
263
+ "</extra_l_id_60>",
264
+ "</extra_l_id_61>",
265
+ "</extra_l_id_62>",
266
+ "</extra_l_id_63>",
267
+ "</extra_l_id_64>",
268
+ "</extra_l_id_65>",
269
+ "</extra_l_id_66>",
270
+ "</extra_l_id_67>",
271
+ "</extra_l_id_68>",
272
+ "</extra_l_id_69>",
273
+ "</extra_l_id_70>",
274
+ "</extra_l_id_71>",
275
+ "</extra_l_id_72>",
276
+ "</extra_l_id_73>",
277
+ "</extra_l_id_74>",
278
+ "</extra_l_id_75>",
279
+ "</extra_l_id_76>",
280
+ "</extra_l_id_77>",
281
+ "</extra_l_id_78>",
282
+ "</extra_l_id_79>",
283
+ "</extra_l_id_80>",
284
+ "</extra_l_id_81>",
285
+ "</extra_l_id_82>",
286
+ "</extra_l_id_83>",
287
+ "</extra_l_id_84>",
288
+ "</extra_l_id_85>",
289
+ "</extra_l_id_86>",
290
+ "</extra_l_id_87>",
291
+ "</extra_l_id_88>",
292
+ "</extra_l_id_89>",
293
+ "</extra_l_id_90>",
294
+ "</extra_l_id_91>",
295
+ "</extra_l_id_92>",
296
+ "</extra_l_id_93>",
297
+ "</extra_l_id_94>",
298
+ "</extra_l_id_95>",
299
+ "</extra_l_id_96>",
300
+ "</extra_l_id_97>",
301
+ "</extra_l_id_98>",
302
+ "</extra_l_id_99>",
303
+ "<extra_t_id_0>",
304
+ "<extra_t_id_1>",
305
+ "<extra_t_id_2>",
306
+ "<extra_t_id_3>",
307
+ "<extra_t_id_4>",
308
+ "<extra_t_id_5>",
309
+ "<extra_t_id_6>",
310
+ "<extra_t_id_7>",
311
+ "<extra_t_id_8>",
312
+ "<extra_t_id_9>",
313
+ "<extra_t_id_10>",
314
+ "<extra_t_id_11>",
315
+ "<extra_t_id_12>",
316
+ "<extra_t_id_13>",
317
+ "<extra_t_id_14>",
318
+ "<extra_t_id_15>",
319
+ "<extra_t_id_16>",
320
+ "<extra_t_id_17>",
321
+ "<extra_t_id_18>",
322
+ "<extra_t_id_19>",
323
+ "<extra_t_id_20>",
324
+ "<extra_t_id_21>",
325
+ "<extra_t_id_22>",
326
+ "<extra_t_id_23>",
327
+ "<extra_t_id_24>",
328
+ "<extra_t_id_25>",
329
+ "<extra_t_id_26>",
330
+ "<extra_t_id_27>",
331
+ "<extra_t_id_28>",
332
+ "<extra_t_id_29>",
333
+ "<extra_t_id_30>",
334
+ "<extra_t_id_31>",
335
+ "<extra_t_id_32>",
336
+ "<extra_t_id_33>",
337
+ "<extra_t_id_34>",
338
+ "<extra_t_id_35>",
339
+ "<extra_t_id_36>",
340
+ "<extra_t_id_37>",
341
+ "<extra_t_id_38>",
342
+ "<extra_t_id_39>",
343
+ "<extra_t_id_40>",
344
+ "<extra_t_id_41>",
345
+ "<extra_t_id_42>",
346
+ "<extra_t_id_43>",
347
+ "<extra_t_id_44>",
348
+ "<extra_t_id_45>",
349
+ "<extra_t_id_46>",
350
+ "<extra_t_id_47>",
351
+ "<extra_t_id_48>",
352
+ "<extra_t_id_49>",
353
+ "<extra_t_id_50>",
354
+ "<extra_t_id_51>",
355
+ "<extra_t_id_52>",
356
+ "<extra_t_id_53>",
357
+ "<extra_t_id_54>",
358
+ "<extra_t_id_55>",
359
+ "<extra_t_id_56>",
360
+ "<extra_t_id_57>",
361
+ "<extra_t_id_58>",
362
+ "<extra_t_id_59>",
363
+ "<extra_t_id_60>",
364
+ "<extra_t_id_61>",
365
+ "<extra_t_id_62>",
366
+ "<extra_t_id_63>",
367
+ "<extra_t_id_64>",
368
+ "<extra_t_id_65>",
369
+ "<extra_t_id_66>",
370
+ "<extra_t_id_67>",
371
+ "<extra_t_id_68>",
372
+ "<extra_t_id_69>",
373
+ "<extra_t_id_70>",
374
+ "<extra_t_id_71>",
375
+ "<extra_t_id_72>",
376
+ "<extra_t_id_73>",
377
+ "<extra_t_id_74>",
378
+ "<extra_t_id_75>",
379
+ "<extra_t_id_76>",
380
+ "<extra_t_id_77>",
381
+ "<extra_t_id_78>",
382
+ "<extra_t_id_79>",
383
+ "<extra_t_id_80>",
384
+ "<extra_t_id_81>",
385
+ "<extra_t_id_82>",
386
+ "<extra_t_id_83>",
387
+ "<extra_t_id_84>",
388
+ "<extra_t_id_85>",
389
+ "<extra_t_id_86>",
390
+ "<extra_t_id_87>",
391
+ "<extra_t_id_88>",
392
+ "<extra_t_id_89>",
393
+ "<extra_t_id_90>",
394
+ "<extra_t_id_91>",
395
+ "<extra_t_id_92>",
396
+ "<extra_t_id_93>",
397
+ "<extra_t_id_94>",
398
+ "<extra_t_id_95>",
399
+ "<extra_t_id_96>",
400
+ "<extra_t_id_97>",
401
+ "<extra_t_id_98>",
402
+ "<extra_t_id_99>",
403
+ "</extra_t_id_0>",
404
+ "</extra_t_id_1>",
405
+ "</extra_t_id_2>",
406
+ "</extra_t_id_3>",
407
+ "</extra_t_id_4>",
408
+ "</extra_t_id_5>",
409
+ "</extra_t_id_6>",
410
+ "</extra_t_id_7>",
411
+ "</extra_t_id_8>",
412
+ "</extra_t_id_9>",
413
+ "</extra_t_id_10>",
414
+ "</extra_t_id_11>",
415
+ "</extra_t_id_12>",
416
+ "</extra_t_id_13>",
417
+ "</extra_t_id_14>",
418
+ "</extra_t_id_15>",
419
+ "</extra_t_id_16>",
420
+ "</extra_t_id_17>",
421
+ "</extra_t_id_18>",
422
+ "</extra_t_id_19>",
423
+ "</extra_t_id_20>",
424
+ "</extra_t_id_21>",
425
+ "</extra_t_id_22>",
426
+ "</extra_t_id_23>",
427
+ "</extra_t_id_24>",
428
+ "</extra_t_id_25>",
429
+ "</extra_t_id_26>",
430
+ "</extra_t_id_27>",
431
+ "</extra_t_id_28>",
432
+ "</extra_t_id_29>",
433
+ "</extra_t_id_30>",
434
+ "</extra_t_id_31>",
435
+ "</extra_t_id_32>",
436
+ "</extra_t_id_33>",
437
+ "</extra_t_id_34>",
438
+ "</extra_t_id_35>",
439
+ "</extra_t_id_36>",
440
+ "</extra_t_id_37>",
441
+ "</extra_t_id_38>",
442
+ "</extra_t_id_39>",
443
+ "</extra_t_id_40>",
444
+ "</extra_t_id_41>",
445
+ "</extra_t_id_42>",
446
+ "</extra_t_id_43>",
447
+ "</extra_t_id_44>",
448
+ "</extra_t_id_45>",
449
+ "</extra_t_id_46>",
450
+ "</extra_t_id_47>",
451
+ "</extra_t_id_48>",
452
+ "</extra_t_id_49>",
453
+ "</extra_t_id_50>",
454
+ "</extra_t_id_51>",
455
+ "</extra_t_id_52>",
456
+ "</extra_t_id_53>",
457
+ "</extra_t_id_54>",
458
+ "</extra_t_id_55>",
459
+ "</extra_t_id_56>",
460
+ "</extra_t_id_57>",
461
+ "</extra_t_id_58>",
462
+ "</extra_t_id_59>",
463
+ "</extra_t_id_60>",
464
+ "</extra_t_id_61>",
465
+ "</extra_t_id_62>",
466
+ "</extra_t_id_63>",
467
+ "</extra_t_id_64>",
468
+ "</extra_t_id_65>",
469
+ "</extra_t_id_66>",
470
+ "</extra_t_id_67>",
471
+ "</extra_t_id_68>",
472
+ "</extra_t_id_69>",
473
+ "</extra_t_id_70>",
474
+ "</extra_t_id_71>",
475
+ "</extra_t_id_72>",
476
+ "</extra_t_id_73>",
477
+ "</extra_t_id_74>",
478
+ "</extra_t_id_75>",
479
+ "</extra_t_id_76>",
480
+ "</extra_t_id_77>",
481
+ "</extra_t_id_78>",
482
+ "</extra_t_id_79>",
483
+ "</extra_t_id_80>",
484
+ "</extra_t_id_81>",
485
+ "</extra_t_id_82>",
486
+ "</extra_t_id_83>",
487
+ "</extra_t_id_84>",
488
+ "</extra_t_id_85>",
489
+ "</extra_t_id_86>",
490
+ "</extra_t_id_87>",
491
+ "</extra_t_id_88>",
492
+ "</extra_t_id_89>",
493
+ "</extra_t_id_90>",
494
+ "</extra_t_id_91>",
495
+ "</extra_t_id_92>",
496
+ "</extra_t_id_93>",
497
+ "</extra_t_id_94>",
498
+ "</extra_t_id_95>",
499
+ "</extra_t_id_96>",
500
+ "</extra_t_id_97>",
501
+ "</extra_t_id_98>",
502
+ "</extra_t_id_99>",
503
+ "<loc_0>",
504
+ "<loc_1>",
505
+ "<loc_2>",
506
+ "<loc_3>",
507
+ "<loc_4>",
508
+ "<loc_5>",
509
+ "<loc_6>",
510
+ "<loc_7>",
511
+ "<loc_8>",
512
+ "<loc_9>",
513
+ "<loc_10>",
514
+ "<loc_11>",
515
+ "<loc_12>",
516
+ "<loc_13>",
517
+ "<loc_14>",
518
+ "<loc_15>",
519
+ "<loc_16>",
520
+ "<loc_17>",
521
+ "<loc_18>",
522
+ "<loc_19>",
523
+ "<loc_20>",
524
+ "<loc_21>",
525
+ "<loc_22>",
526
+ "<loc_23>",
527
+ "<loc_24>",
528
+ "<loc_25>",
529
+ "<loc_26>",
530
+ "<loc_27>",
531
+ "<loc_28>",
532
+ "<loc_29>",
533
+ "<loc_30>",
534
+ "<loc_31>",
535
+ "<loc_32>",
536
+ "<loc_33>",
537
+ "<loc_34>",
538
+ "<loc_35>",
539
+ "<loc_36>",
540
+ "<loc_37>",
541
+ "<loc_38>",
542
+ "<loc_39>",
543
+ "<loc_40>",
544
+ "<loc_41>",
545
+ "<loc_42>",
546
+ "<loc_43>",
547
+ "<loc_44>",
548
+ "<loc_45>",
549
+ "<loc_46>",
550
+ "<loc_47>",
551
+ "<loc_48>",
552
+ "<loc_49>",
553
+ "<loc_50>",
554
+ "<loc_51>",
555
+ "<loc_52>",
556
+ "<loc_53>",
557
+ "<loc_54>",
558
+ "<loc_55>",
559
+ "<loc_56>",
560
+ "<loc_57>",
561
+ "<loc_58>",
562
+ "<loc_59>",
563
+ "<loc_60>",
564
+ "<loc_61>",
565
+ "<loc_62>",
566
+ "<loc_63>",
567
+ "<loc_64>",
568
+ "<loc_65>",
569
+ "<loc_66>",
570
+ "<loc_67>",
571
+ "<loc_68>",
572
+ "<loc_69>",
573
+ "<loc_70>",
574
+ "<loc_71>",
575
+ "<loc_72>",
576
+ "<loc_73>",
577
+ "<loc_74>",
578
+ "<loc_75>",
579
+ "<loc_76>",
580
+ "<loc_77>",
581
+ "<loc_78>",
582
+ "<loc_79>",
583
+ "<loc_80>",
584
+ "<loc_81>",
585
+ "<loc_82>",
586
+ "<loc_83>",
587
+ "<loc_84>",
588
+ "<loc_85>",
589
+ "<loc_86>",
590
+ "<loc_87>",
591
+ "<loc_88>",
592
+ "<loc_89>",
593
+ "<loc_90>",
594
+ "<loc_91>",
595
+ "<loc_92>",
596
+ "<loc_93>",
597
+ "<loc_94>",
598
+ "<loc_95>",
599
+ "<loc_96>",
600
+ "<loc_97>",
601
+ "<loc_98>",
602
+ "<loc_99>",
603
+ "<loc_100>",
604
+ "<loc_101>",
605
+ "<loc_102>",
606
+ "<loc_103>",
607
+ "<loc_104>",
608
+ "<loc_105>",
609
+ "<loc_106>",
610
+ "<loc_107>",
611
+ "<loc_108>",
612
+ "<loc_109>",
613
+ "<loc_110>",
614
+ "<loc_111>",
615
+ "<loc_112>",
616
+ "<loc_113>",
617
+ "<loc_114>",
618
+ "<loc_115>",
619
+ "<loc_116>",
620
+ "<loc_117>",
621
+ "<loc_118>",
622
+ "<loc_119>",
623
+ "<loc_120>",
624
+ "<loc_121>",
625
+ "<loc_122>",
626
+ "<loc_123>",
627
+ "<loc_124>",
628
+ "<loc_125>",
629
+ "<loc_126>",
630
+ "<loc_127>",
631
+ "<loc_128>",
632
+ "<loc_129>",
633
+ "<loc_130>",
634
+ "<loc_131>",
635
+ "<loc_132>",
636
+ "<loc_133>",
637
+ "<loc_134>",
638
+ "<loc_135>",
639
+ "<loc_136>",
640
+ "<loc_137>",
641
+ "<loc_138>",
642
+ "<loc_139>",
643
+ "<loc_140>",
644
+ "<loc_141>",
645
+ "<loc_142>",
646
+ "<loc_143>",
647
+ "<loc_144>",
648
+ "<loc_145>",
649
+ "<loc_146>",
650
+ "<loc_147>",
651
+ "<loc_148>",
652
+ "<loc_149>",
653
+ "<loc_150>",
654
+ "<loc_151>",
655
+ "<loc_152>",
656
+ "<loc_153>",
657
+ "<loc_154>",
658
+ "<loc_155>",
659
+ "<loc_156>",
660
+ "<loc_157>",
661
+ "<loc_158>",
662
+ "<loc_159>",
663
+ "<loc_160>",
664
+ "<loc_161>",
665
+ "<loc_162>",
666
+ "<loc_163>",
667
+ "<loc_164>",
668
+ "<loc_165>",
669
+ "<loc_166>",
670
+ "<loc_167>",
671
+ "<loc_168>",
672
+ "<loc_169>",
673
+ "<loc_170>",
674
+ "<loc_171>",
675
+ "<loc_172>",
676
+ "<loc_173>",
677
+ "<loc_174>",
678
+ "<loc_175>",
679
+ "<loc_176>",
680
+ "<loc_177>",
681
+ "<loc_178>",
682
+ "<loc_179>",
683
+ "<loc_180>",
684
+ "<loc_181>",
685
+ "<loc_182>",
686
+ "<loc_183>",
687
+ "<loc_184>",
688
+ "<loc_185>",
689
+ "<loc_186>",
690
+ "<loc_187>",
691
+ "<loc_188>",
692
+ "<loc_189>",
693
+ "<loc_190>",
694
+ "<loc_191>",
695
+ "<loc_192>",
696
+ "<loc_193>",
697
+ "<loc_194>",
698
+ "<loc_195>",
699
+ "<loc_196>",
700
+ "<loc_197>",
701
+ "<loc_198>",
702
+ "<loc_199>",
703
+ "<loc_200>",
704
+ "<loc_201>",
705
+ "<loc_202>",
706
+ "<loc_203>",
707
+ "<loc_204>",
708
+ "<loc_205>",
709
+ "<loc_206>",
710
+ "<loc_207>",
711
+ "<loc_208>",
712
+ "<loc_209>",
713
+ "<loc_210>",
714
+ "<loc_211>",
715
+ "<loc_212>",
716
+ "<loc_213>",
717
+ "<loc_214>",
718
+ "<loc_215>",
719
+ "<loc_216>",
720
+ "<loc_217>",
721
+ "<loc_218>",
722
+ "<loc_219>",
723
+ "<loc_220>",
724
+ "<loc_221>",
725
+ "<loc_222>",
726
+ "<loc_223>",
727
+ "<loc_224>",
728
+ "<loc_225>",
729
+ "<loc_226>",
730
+ "<loc_227>",
731
+ "<loc_228>",
732
+ "<loc_229>",
733
+ "<loc_230>",
734
+ "<loc_231>",
735
+ "<loc_232>",
736
+ "<loc_233>",
737
+ "<loc_234>",
738
+ "<loc_235>",
739
+ "<loc_236>",
740
+ "<loc_237>",
741
+ "<loc_238>",
742
+ "<loc_239>",
743
+ "<loc_240>",
744
+ "<loc_241>",
745
+ "<loc_242>",
746
+ "<loc_243>",
747
+ "<loc_244>",
748
+ "<loc_245>",
749
+ "<loc_246>",
750
+ "<loc_247>",
751
+ "<loc_248>",
752
+ "<loc_249>",
753
+ "<loc_250>",
754
+ "<loc_251>",
755
+ "<loc_252>",
756
+ "<loc_253>",
757
+ "<loc_254>",
758
+ "<loc_255>",
759
+ "<loc_256>",
760
+ "<loc_257>",
761
+ "<loc_258>",
762
+ "<loc_259>",
763
+ "<loc_260>",
764
+ "<loc_261>",
765
+ "<loc_262>",
766
+ "<loc_263>",
767
+ "<loc_264>",
768
+ "<loc_265>",
769
+ "<loc_266>",
770
+ "<loc_267>",
771
+ "<loc_268>",
772
+ "<loc_269>",
773
+ "<loc_270>",
774
+ "<loc_271>",
775
+ "<loc_272>",
776
+ "<loc_273>",
777
+ "<loc_274>",
778
+ "<loc_275>",
779
+ "<loc_276>",
780
+ "<loc_277>",
781
+ "<loc_278>",
782
+ "<loc_279>",
783
+ "<loc_280>",
784
+ "<loc_281>",
785
+ "<loc_282>",
786
+ "<loc_283>",
787
+ "<loc_284>",
788
+ "<loc_285>",
789
+ "<loc_286>",
790
+ "<loc_287>",
791
+ "<loc_288>",
792
+ "<loc_289>",
793
+ "<loc_290>",
794
+ "<loc_291>",
795
+ "<loc_292>",
796
+ "<loc_293>",
797
+ "<loc_294>",
798
+ "<loc_295>",
799
+ "<loc_296>",
800
+ "<loc_297>",
801
+ "<loc_298>",
802
+ "<loc_299>",
803
+ "<loc_300>",
804
+ "<loc_301>",
805
+ "<loc_302>",
806
+ "<loc_303>",
807
+ "<loc_304>",
808
+ "<loc_305>",
809
+ "<loc_306>",
810
+ "<loc_307>",
811
+ "<loc_308>",
812
+ "<loc_309>",
813
+ "<loc_310>",
814
+ "<loc_311>",
815
+ "<loc_312>",
816
+ "<loc_313>",
817
+ "<loc_314>",
818
+ "<loc_315>",
819
+ "<loc_316>",
820
+ "<loc_317>",
821
+ "<loc_318>",
822
+ "<loc_319>",
823
+ "<loc_320>",
824
+ "<loc_321>",
825
+ "<loc_322>",
826
+ "<loc_323>",
827
+ "<loc_324>",
828
+ "<loc_325>",
829
+ "<loc_326>",
830
+ "<loc_327>",
831
+ "<loc_328>",
832
+ "<loc_329>",
833
+ "<loc_330>",
834
+ "<loc_331>",
835
+ "<loc_332>",
836
+ "<loc_333>",
837
+ "<loc_334>",
838
+ "<loc_335>",
839
+ "<loc_336>",
840
+ "<loc_337>",
841
+ "<loc_338>",
842
+ "<loc_339>",
843
+ "<loc_340>",
844
+ "<loc_341>",
845
+ "<loc_342>",
846
+ "<loc_343>",
847
+ "<loc_344>",
848
+ "<loc_345>",
849
+ "<loc_346>",
850
+ "<loc_347>",
851
+ "<loc_348>",
852
+ "<loc_349>",
853
+ "<loc_350>",
854
+ "<loc_351>",
855
+ "<loc_352>",
856
+ "<loc_353>",
857
+ "<loc_354>",
858
+ "<loc_355>",
859
+ "<loc_356>",
860
+ "<loc_357>",
861
+ "<loc_358>",
862
+ "<loc_359>",
863
+ "<loc_360>",
864
+ "<loc_361>",
865
+ "<loc_362>",
866
+ "<loc_363>",
867
+ "<loc_364>",
868
+ "<loc_365>",
869
+ "<loc_366>",
870
+ "<loc_367>",
871
+ "<loc_368>",
872
+ "<loc_369>",
873
+ "<loc_370>",
874
+ "<loc_371>",
875
+ "<loc_372>",
876
+ "<loc_373>",
877
+ "<loc_374>",
878
+ "<loc_375>",
879
+ "<loc_376>",
880
+ "<loc_377>",
881
+ "<loc_378>",
882
+ "<loc_379>",
883
+ "<loc_380>",
884
+ "<loc_381>",
885
+ "<loc_382>",
886
+ "<loc_383>",
887
+ "<loc_384>",
888
+ "<loc_385>",
889
+ "<loc_386>",
890
+ "<loc_387>",
891
+ "<loc_388>",
892
+ "<loc_389>",
893
+ "<loc_390>",
894
+ "<loc_391>",
895
+ "<loc_392>",
896
+ "<loc_393>",
897
+ "<loc_394>",
898
+ "<loc_395>",
899
+ "<loc_396>",
900
+ "<loc_397>",
901
+ "<loc_398>",
902
+ "<loc_399>",
903
+ "<loc_400>",
904
+ "<loc_401>",
905
+ "<loc_402>",
906
+ "<loc_403>",
907
+ "<loc_404>",
908
+ "<loc_405>",
909
+ "<loc_406>",
910
+ "<loc_407>",
911
+ "<loc_408>",
912
+ "<loc_409>",
913
+ "<loc_410>",
914
+ "<loc_411>",
915
+ "<loc_412>",
916
+ "<loc_413>",
917
+ "<loc_414>",
918
+ "<loc_415>",
919
+ "<loc_416>",
920
+ "<loc_417>",
921
+ "<loc_418>",
922
+ "<loc_419>",
923
+ "<loc_420>",
924
+ "<loc_421>",
925
+ "<loc_422>",
926
+ "<loc_423>",
927
+ "<loc_424>",
928
+ "<loc_425>",
929
+ "<loc_426>",
930
+ "<loc_427>",
931
+ "<loc_428>",
932
+ "<loc_429>",
933
+ "<loc_430>",
934
+ "<loc_431>",
935
+ "<loc_432>",
936
+ "<loc_433>",
937
+ "<loc_434>",
938
+ "<loc_435>",
939
+ "<loc_436>",
940
+ "<loc_437>",
941
+ "<loc_438>",
942
+ "<loc_439>",
943
+ "<loc_440>",
944
+ "<loc_441>",
945
+ "<loc_442>",
946
+ "<loc_443>",
947
+ "<loc_444>",
948
+ "<loc_445>",
949
+ "<loc_446>",
950
+ "<loc_447>",
951
+ "<loc_448>",
952
+ "<loc_449>",
953
+ "<loc_450>",
954
+ "<loc_451>",
955
+ "<loc_452>",
956
+ "<loc_453>",
957
+ "<loc_454>",
958
+ "<loc_455>",
959
+ "<loc_456>",
960
+ "<loc_457>",
961
+ "<loc_458>",
962
+ "<loc_459>",
963
+ "<loc_460>",
964
+ "<loc_461>",
965
+ "<loc_462>",
966
+ "<loc_463>",
967
+ "<loc_464>",
968
+ "<loc_465>",
969
+ "<loc_466>",
970
+ "<loc_467>",
971
+ "<loc_468>",
972
+ "<loc_469>",
973
+ "<loc_470>",
974
+ "<loc_471>",
975
+ "<loc_472>",
976
+ "<loc_473>",
977
+ "<loc_474>",
978
+ "<loc_475>",
979
+ "<loc_476>",
980
+ "<loc_477>",
981
+ "<loc_478>",
982
+ "<loc_479>",
983
+ "<loc_480>",
984
+ "<loc_481>",
985
+ "<loc_482>",
986
+ "<loc_483>",
987
+ "<loc_484>",
988
+ "<loc_485>",
989
+ "<loc_486>",
990
+ "<loc_487>",
991
+ "<loc_488>",
992
+ "<loc_489>",
993
+ "<loc_490>",
994
+ "<loc_491>",
995
+ "<loc_492>",
996
+ "<loc_493>",
997
+ "<loc_494>",
998
+ "<loc_495>",
999
+ "<loc_496>",
1000
+ "<loc_497>",
1001
+ "<loc_498>",
1002
+ "<loc_499>",
1003
+ "<loc_500>",
1004
+ "<other_0>",
1005
+ "<other_1>",
1006
+ "<other_2>",
1007
+ "<other_3>",
1008
+ "<other_4>",
1009
+ "<other_5>",
1010
+ "<other_6>",
1011
+ "<other_7>",
1012
+ "<other_8>",
1013
+ "<other_9>",
1014
+ "<other_10>",
1015
+ "<other_11>",
1016
+ "<other_12>",
1017
+ "<other_13>",
1018
+ "<other_14>",
1019
+ "<other_15>",
1020
+ "<other_16>",
1021
+ "<other_17>",
1022
+ "<other_18>",
1023
+ "<other_19>",
1024
+ "<other_20>",
1025
+ "<other_21>",
1026
+ "<other_22>",
1027
+ "<other_23>",
1028
+ "<other_24>",
1029
+ "<other_25>",
1030
+ "<other_26>",
1031
+ "<other_27>",
1032
+ "<other_28>",
1033
+ "<other_29>",
1034
+ "<other_30>",
1035
+ "<other_31>",
1036
+ "<other_32>",
1037
+ "<other_33>",
1038
+ "<other_34>",
1039
+ "<other_35>",
1040
+ "<other_36>",
1041
+ "<other_37>",
1042
+ "<other_38>",
1043
+ "<other_39>",
1044
+ "<other_40>",
1045
+ "<other_41>",
1046
+ "<other_42>",
1047
+ "<other_43>",
1048
+ "<other_44>",
1049
+ "<other_45>",
1050
+ "<other_46>",
1051
+ "<other_47>",
1052
+ "<other_48>",
1053
+ "<other_49>",
1054
+ "<other_50>",
1055
+ "<other_51>",
1056
+ "<other_52>",
1057
+ "<other_53>",
1058
+ "<other_54>",
1059
+ "<other_55>",
1060
+ "<other_56>",
1061
+ "<other_57>",
1062
+ "<other_58>",
1063
+ "<other_59>",
1064
+ "<other_60>",
1065
+ "<other_61>",
1066
+ "<other_62>",
1067
+ "<other_63>",
1068
+ "<other_64>",
1069
+ "<other_65>",
1070
+ "<other_66>",
1071
+ "<other_67>",
1072
+ "<other_68>",
1073
+ "<other_69>",
1074
+ "<other_70>",
1075
+ "<other_71>",
1076
+ "<other_72>",
1077
+ "<other_73>",
1078
+ "<other_74>",
1079
+ "<other_75>",
1080
+ "<other_76>",
1081
+ "<other_77>",
1082
+ "<other_78>",
1083
+ "<other_79>",
1084
+ "<other_80>",
1085
+ "<other_81>",
1086
+ "<other_82>",
1087
+ "<other_83>",
1088
+ "<other_84>",
1089
+ "<other_85>",
1090
+ "<other_86>",
1091
+ "<other_87>",
1092
+ "<other_88>",
1093
+ "<other_89>",
1094
+ "<other_90>",
1095
+ "<other_91>",
1096
+ "<other_92>",
1097
+ "<other_93>",
1098
+ "<other_94>",
1099
+ "<other_95>",
1100
+ "<other_96>",
1101
+ "<other_97>",
1102
+ "<other_98>",
1103
+ "<other_99>",
1104
+ "<other_100>",
1105
+ "<other_101>",
1106
+ "<other_102>",
1107
+ "<other_103>",
1108
+ "<other_104>",
1109
+ "<other_105>",
1110
+ "<other_106>",
1111
+ "<other_107>",
1112
+ "<other_108>",
1113
+ "<other_109>",
1114
+ "<other_110>",
1115
+ "<other_111>",
1116
+ "<other_112>",
1117
+ "<other_113>",
1118
+ "<other_114>",
1119
+ "<other_115>",
1120
+ "<other_116>",
1121
+ "<other_117>",
1122
+ "<other_118>",
1123
+ "<other_119>",
1124
+ "<other_120>",
1125
+ "<other_121>",
1126
+ "<other_122>",
1127
+ "<other_123>",
1128
+ "<other_124>",
1129
+ "<other_125>",
1130
+ "<other_126>",
1131
+ "<other_127>",
1132
+ "<other_128>",
1133
+ "<other_129>",
1134
+ "<other_130>",
1135
+ "<other_131>",
1136
+ "<other_132>",
1137
+ "<other_133>",
1138
+ "<other_134>",
1139
+ "<other_135>",
1140
+ "<other_136>",
1141
+ "<other_137>",
1142
+ "<other_138>",
1143
+ "<other_139>",
1144
+ "<other_140>",
1145
+ "<other_141>",
1146
+ "<other_142>",
1147
+ "<other_143>",
1148
+ "<other_144>",
1149
+ "<other_145>",
1150
+ "<other_146>",
1151
+ "<other_147>",
1152
+ "<other_148>",
1153
+ "<other_149>",
1154
+ "<other_150>",
1155
+ "<other_151>",
1156
+ "<other_152>",
1157
+ "<other_153>",
1158
+ "<other_154>",
1159
+ "<other_155>",
1160
+ "<other_156>",
1161
+ "<other_157>",
1162
+ "<other_158>",
1163
+ "<other_159>",
1164
+ "<other_160>",
1165
+ "<other_161>",
1166
+ "<other_162>",
1167
+ "<other_163>",
1168
+ "<other_164>",
1169
+ "<other_165>",
1170
+ "<other_166>",
1171
+ "<other_167>",
1172
+ "<other_168>",
1173
+ "<other_169>",
1174
+ "<other_170>",
1175
+ "<other_171>",
1176
+ "<other_172>",
1177
+ "<other_173>",
1178
+ "<other_174>",
1179
+ "<other_175>",
1180
+ "<other_176>",
1181
+ "<other_177>",
1182
+ "<other_178>",
1183
+ "<other_179>",
1184
+ "<other_180>",
1185
+ "<other_181>",
1186
+ "<other_182>",
1187
+ "<other_183>",
1188
+ "<other_184>",
1189
+ "<other_185>",
1190
+ "<other_186>",
1191
+ "<other_187>",
1192
+ "<other_188>",
1193
+ "<other_189>",
1194
+ "<other_190>",
1195
+ "<other_191>",
1196
+ "<other_192>",
1197
+ "<other_193>",
1198
+ "<other_194>",
1199
+ "<other_195>",
1200
+ "<other_196>",
1201
+ "<other_197>",
1202
+ "<other_198>",
1203
+ "<other_199>"
1204
+ ],
1205
+ "eos_token": "</s>",
1206
+ "pad_token": "<pad>",
1207
+ "unk_token": "<unk>"
1208
+ }
spiece.model ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:d60acb128cf7b7f2536e8f38a5b18a05535c9e14c7a355904270e15b0945ea86
3
+ size 791656
tokenizer_config.json ADDED
@@ -0,0 +1,1213 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "additional_special_tokens": [
3
+ "<extra_id_0>",
4
+ "<extra_id_1>",
5
+ "<extra_id_2>",
6
+ "<extra_id_3>",
7
+ "<extra_id_4>",
8
+ "<extra_id_5>",
9
+ "<extra_id_6>",
10
+ "<extra_id_7>",
11
+ "<extra_id_8>",
12
+ "<extra_id_9>",
13
+ "<extra_id_10>",
14
+ "<extra_id_11>",
15
+ "<extra_id_12>",
16
+ "<extra_id_13>",
17
+ "<extra_id_14>",
18
+ "<extra_id_15>",
19
+ "<extra_id_16>",
20
+ "<extra_id_17>",
21
+ "<extra_id_18>",
22
+ "<extra_id_19>",
23
+ "<extra_id_20>",
24
+ "<extra_id_21>",
25
+ "<extra_id_22>",
26
+ "<extra_id_23>",
27
+ "<extra_id_24>",
28
+ "<extra_id_25>",
29
+ "<extra_id_26>",
30
+ "<extra_id_27>",
31
+ "<extra_id_28>",
32
+ "<extra_id_29>",
33
+ "<extra_id_30>",
34
+ "<extra_id_31>",
35
+ "<extra_id_32>",
36
+ "<extra_id_33>",
37
+ "<extra_id_34>",
38
+ "<extra_id_35>",
39
+ "<extra_id_36>",
40
+ "<extra_id_37>",
41
+ "<extra_id_38>",
42
+ "<extra_id_39>",
43
+ "<extra_id_40>",
44
+ "<extra_id_41>",
45
+ "<extra_id_42>",
46
+ "<extra_id_43>",
47
+ "<extra_id_44>",
48
+ "<extra_id_45>",
49
+ "<extra_id_46>",
50
+ "<extra_id_47>",
51
+ "<extra_id_48>",
52
+ "<extra_id_49>",
53
+ "<extra_id_50>",
54
+ "<extra_id_51>",
55
+ "<extra_id_52>",
56
+ "<extra_id_53>",
57
+ "<extra_id_54>",
58
+ "<extra_id_55>",
59
+ "<extra_id_56>",
60
+ "<extra_id_57>",
61
+ "<extra_id_58>",
62
+ "<extra_id_59>",
63
+ "<extra_id_60>",
64
+ "<extra_id_61>",
65
+ "<extra_id_62>",
66
+ "<extra_id_63>",
67
+ "<extra_id_64>",
68
+ "<extra_id_65>",
69
+ "<extra_id_66>",
70
+ "<extra_id_67>",
71
+ "<extra_id_68>",
72
+ "<extra_id_69>",
73
+ "<extra_id_70>",
74
+ "<extra_id_71>",
75
+ "<extra_id_72>",
76
+ "<extra_id_73>",
77
+ "<extra_id_74>",
78
+ "<extra_id_75>",
79
+ "<extra_id_76>",
80
+ "<extra_id_77>",
81
+ "<extra_id_78>",
82
+ "<extra_id_79>",
83
+ "<extra_id_80>",
84
+ "<extra_id_81>",
85
+ "<extra_id_82>",
86
+ "<extra_id_83>",
87
+ "<extra_id_84>",
88
+ "<extra_id_85>",
89
+ "<extra_id_86>",
90
+ "<extra_id_87>",
91
+ "<extra_id_88>",
92
+ "<extra_id_89>",
93
+ "<extra_id_90>",
94
+ "<extra_id_91>",
95
+ "<extra_id_92>",
96
+ "<extra_id_93>",
97
+ "<extra_id_94>",
98
+ "<extra_id_95>",
99
+ "<extra_id_96>",
100
+ "<extra_id_97>",
101
+ "<extra_id_98>",
102
+ "<extra_id_99>",
103
+ "<extra_l_id_0>",
104
+ "<extra_l_id_1>",
105
+ "<extra_l_id_2>",
106
+ "<extra_l_id_3>",
107
+ "<extra_l_id_4>",
108
+ "<extra_l_id_5>",
109
+ "<extra_l_id_6>",
110
+ "<extra_l_id_7>",
111
+ "<extra_l_id_8>",
112
+ "<extra_l_id_9>",
113
+ "<extra_l_id_10>",
114
+ "<extra_l_id_11>",
115
+ "<extra_l_id_12>",
116
+ "<extra_l_id_13>",
117
+ "<extra_l_id_14>",
118
+ "<extra_l_id_15>",
119
+ "<extra_l_id_16>",
120
+ "<extra_l_id_17>",
121
+ "<extra_l_id_18>",
122
+ "<extra_l_id_19>",
123
+ "<extra_l_id_20>",
124
+ "<extra_l_id_21>",
125
+ "<extra_l_id_22>",
126
+ "<extra_l_id_23>",
127
+ "<extra_l_id_24>",
128
+ "<extra_l_id_25>",
129
+ "<extra_l_id_26>",
130
+ "<extra_l_id_27>",
131
+ "<extra_l_id_28>",
132
+ "<extra_l_id_29>",
133
+ "<extra_l_id_30>",
134
+ "<extra_l_id_31>",
135
+ "<extra_l_id_32>",
136
+ "<extra_l_id_33>",
137
+ "<extra_l_id_34>",
138
+ "<extra_l_id_35>",
139
+ "<extra_l_id_36>",
140
+ "<extra_l_id_37>",
141
+ "<extra_l_id_38>",
142
+ "<extra_l_id_39>",
143
+ "<extra_l_id_40>",
144
+ "<extra_l_id_41>",
145
+ "<extra_l_id_42>",
146
+ "<extra_l_id_43>",
147
+ "<extra_l_id_44>",
148
+ "<extra_l_id_45>",
149
+ "<extra_l_id_46>",
150
+ "<extra_l_id_47>",
151
+ "<extra_l_id_48>",
152
+ "<extra_l_id_49>",
153
+ "<extra_l_id_50>",
154
+ "<extra_l_id_51>",
155
+ "<extra_l_id_52>",
156
+ "<extra_l_id_53>",
157
+ "<extra_l_id_54>",
158
+ "<extra_l_id_55>",
159
+ "<extra_l_id_56>",
160
+ "<extra_l_id_57>",
161
+ "<extra_l_id_58>",
162
+ "<extra_l_id_59>",
163
+ "<extra_l_id_60>",
164
+ "<extra_l_id_61>",
165
+ "<extra_l_id_62>",
166
+ "<extra_l_id_63>",
167
+ "<extra_l_id_64>",
168
+ "<extra_l_id_65>",
169
+ "<extra_l_id_66>",
170
+ "<extra_l_id_67>",
171
+ "<extra_l_id_68>",
172
+ "<extra_l_id_69>",
173
+ "<extra_l_id_70>",
174
+ "<extra_l_id_71>",
175
+ "<extra_l_id_72>",
176
+ "<extra_l_id_73>",
177
+ "<extra_l_id_74>",
178
+ "<extra_l_id_75>",
179
+ "<extra_l_id_76>",
180
+ "<extra_l_id_77>",
181
+ "<extra_l_id_78>",
182
+ "<extra_l_id_79>",
183
+ "<extra_l_id_80>",
184
+ "<extra_l_id_81>",
185
+ "<extra_l_id_82>",
186
+ "<extra_l_id_83>",
187
+ "<extra_l_id_84>",
188
+ "<extra_l_id_85>",
189
+ "<extra_l_id_86>",
190
+ "<extra_l_id_87>",
191
+ "<extra_l_id_88>",
192
+ "<extra_l_id_89>",
193
+ "<extra_l_id_90>",
194
+ "<extra_l_id_91>",
195
+ "<extra_l_id_92>",
196
+ "<extra_l_id_93>",
197
+ "<extra_l_id_94>",
198
+ "<extra_l_id_95>",
199
+ "<extra_l_id_96>",
200
+ "<extra_l_id_97>",
201
+ "<extra_l_id_98>",
202
+ "<extra_l_id_99>",
203
+ "</extra_l_id_0>",
204
+ "</extra_l_id_1>",
205
+ "</extra_l_id_2>",
206
+ "</extra_l_id_3>",
207
+ "</extra_l_id_4>",
208
+ "</extra_l_id_5>",
209
+ "</extra_l_id_6>",
210
+ "</extra_l_id_7>",
211
+ "</extra_l_id_8>",
212
+ "</extra_l_id_9>",
213
+ "</extra_l_id_10>",
214
+ "</extra_l_id_11>",
215
+ "</extra_l_id_12>",
216
+ "</extra_l_id_13>",
217
+ "</extra_l_id_14>",
218
+ "</extra_l_id_15>",
219
+ "</extra_l_id_16>",
220
+ "</extra_l_id_17>",
221
+ "</extra_l_id_18>",
222
+ "</extra_l_id_19>",
223
+ "</extra_l_id_20>",
224
+ "</extra_l_id_21>",
225
+ "</extra_l_id_22>",
226
+ "</extra_l_id_23>",
227
+ "</extra_l_id_24>",
228
+ "</extra_l_id_25>",
229
+ "</extra_l_id_26>",
230
+ "</extra_l_id_27>",
231
+ "</extra_l_id_28>",
232
+ "</extra_l_id_29>",
233
+ "</extra_l_id_30>",
234
+ "</extra_l_id_31>",
235
+ "</extra_l_id_32>",
236
+ "</extra_l_id_33>",
237
+ "</extra_l_id_34>",
238
+ "</extra_l_id_35>",
239
+ "</extra_l_id_36>",
240
+ "</extra_l_id_37>",
241
+ "</extra_l_id_38>",
242
+ "</extra_l_id_39>",
243
+ "</extra_l_id_40>",
244
+ "</extra_l_id_41>",
245
+ "</extra_l_id_42>",
246
+ "</extra_l_id_43>",
247
+ "</extra_l_id_44>",
248
+ "</extra_l_id_45>",
249
+ "</extra_l_id_46>",
250
+ "</extra_l_id_47>",
251
+ "</extra_l_id_48>",
252
+ "</extra_l_id_49>",
253
+ "</extra_l_id_50>",
254
+ "</extra_l_id_51>",
255
+ "</extra_l_id_52>",
256
+ "</extra_l_id_53>",
257
+ "</extra_l_id_54>",
258
+ "</extra_l_id_55>",
259
+ "</extra_l_id_56>",
260
+ "</extra_l_id_57>",
261
+ "</extra_l_id_58>",
262
+ "</extra_l_id_59>",
263
+ "</extra_l_id_60>",
264
+ "</extra_l_id_61>",
265
+ "</extra_l_id_62>",
266
+ "</extra_l_id_63>",
267
+ "</extra_l_id_64>",
268
+ "</extra_l_id_65>",
269
+ "</extra_l_id_66>",
270
+ "</extra_l_id_67>",
271
+ "</extra_l_id_68>",
272
+ "</extra_l_id_69>",
273
+ "</extra_l_id_70>",
274
+ "</extra_l_id_71>",
275
+ "</extra_l_id_72>",
276
+ "</extra_l_id_73>",
277
+ "</extra_l_id_74>",
278
+ "</extra_l_id_75>",
279
+ "</extra_l_id_76>",
280
+ "</extra_l_id_77>",
281
+ "</extra_l_id_78>",
282
+ "</extra_l_id_79>",
283
+ "</extra_l_id_80>",
284
+ "</extra_l_id_81>",
285
+ "</extra_l_id_82>",
286
+ "</extra_l_id_83>",
287
+ "</extra_l_id_84>",
288
+ "</extra_l_id_85>",
289
+ "</extra_l_id_86>",
290
+ "</extra_l_id_87>",
291
+ "</extra_l_id_88>",
292
+ "</extra_l_id_89>",
293
+ "</extra_l_id_90>",
294
+ "</extra_l_id_91>",
295
+ "</extra_l_id_92>",
296
+ "</extra_l_id_93>",
297
+ "</extra_l_id_94>",
298
+ "</extra_l_id_95>",
299
+ "</extra_l_id_96>",
300
+ "</extra_l_id_97>",
301
+ "</extra_l_id_98>",
302
+ "</extra_l_id_99>",
303
+ "<extra_t_id_0>",
304
+ "<extra_t_id_1>",
305
+ "<extra_t_id_2>",
306
+ "<extra_t_id_3>",
307
+ "<extra_t_id_4>",
308
+ "<extra_t_id_5>",
309
+ "<extra_t_id_6>",
310
+ "<extra_t_id_7>",
311
+ "<extra_t_id_8>",
312
+ "<extra_t_id_9>",
313
+ "<extra_t_id_10>",
314
+ "<extra_t_id_11>",
315
+ "<extra_t_id_12>",
316
+ "<extra_t_id_13>",
317
+ "<extra_t_id_14>",
318
+ "<extra_t_id_15>",
319
+ "<extra_t_id_16>",
320
+ "<extra_t_id_17>",
321
+ "<extra_t_id_18>",
322
+ "<extra_t_id_19>",
323
+ "<extra_t_id_20>",
324
+ "<extra_t_id_21>",
325
+ "<extra_t_id_22>",
326
+ "<extra_t_id_23>",
327
+ "<extra_t_id_24>",
328
+ "<extra_t_id_25>",
329
+ "<extra_t_id_26>",
330
+ "<extra_t_id_27>",
331
+ "<extra_t_id_28>",
332
+ "<extra_t_id_29>",
333
+ "<extra_t_id_30>",
334
+ "<extra_t_id_31>",
335
+ "<extra_t_id_32>",
336
+ "<extra_t_id_33>",
337
+ "<extra_t_id_34>",
338
+ "<extra_t_id_35>",
339
+ "<extra_t_id_36>",
340
+ "<extra_t_id_37>",
341
+ "<extra_t_id_38>",
342
+ "<extra_t_id_39>",
343
+ "<extra_t_id_40>",
344
+ "<extra_t_id_41>",
345
+ "<extra_t_id_42>",
346
+ "<extra_t_id_43>",
347
+ "<extra_t_id_44>",
348
+ "<extra_t_id_45>",
349
+ "<extra_t_id_46>",
350
+ "<extra_t_id_47>",
351
+ "<extra_t_id_48>",
352
+ "<extra_t_id_49>",
353
+ "<extra_t_id_50>",
354
+ "<extra_t_id_51>",
355
+ "<extra_t_id_52>",
356
+ "<extra_t_id_53>",
357
+ "<extra_t_id_54>",
358
+ "<extra_t_id_55>",
359
+ "<extra_t_id_56>",
360
+ "<extra_t_id_57>",
361
+ "<extra_t_id_58>",
362
+ "<extra_t_id_59>",
363
+ "<extra_t_id_60>",
364
+ "<extra_t_id_61>",
365
+ "<extra_t_id_62>",
366
+ "<extra_t_id_63>",
367
+ "<extra_t_id_64>",
368
+ "<extra_t_id_65>",
369
+ "<extra_t_id_66>",
370
+ "<extra_t_id_67>",
371
+ "<extra_t_id_68>",
372
+ "<extra_t_id_69>",
373
+ "<extra_t_id_70>",
374
+ "<extra_t_id_71>",
375
+ "<extra_t_id_72>",
376
+ "<extra_t_id_73>",
377
+ "<extra_t_id_74>",
378
+ "<extra_t_id_75>",
379
+ "<extra_t_id_76>",
380
+ "<extra_t_id_77>",
381
+ "<extra_t_id_78>",
382
+ "<extra_t_id_79>",
383
+ "<extra_t_id_80>",
384
+ "<extra_t_id_81>",
385
+ "<extra_t_id_82>",
386
+ "<extra_t_id_83>",
387
+ "<extra_t_id_84>",
388
+ "<extra_t_id_85>",
389
+ "<extra_t_id_86>",
390
+ "<extra_t_id_87>",
391
+ "<extra_t_id_88>",
392
+ "<extra_t_id_89>",
393
+ "<extra_t_id_90>",
394
+ "<extra_t_id_91>",
395
+ "<extra_t_id_92>",
396
+ "<extra_t_id_93>",
397
+ "<extra_t_id_94>",
398
+ "<extra_t_id_95>",
399
+ "<extra_t_id_96>",
400
+ "<extra_t_id_97>",
401
+ "<extra_t_id_98>",
402
+ "<extra_t_id_99>",
403
+ "</extra_t_id_0>",
404
+ "</extra_t_id_1>",
405
+ "</extra_t_id_2>",
406
+ "</extra_t_id_3>",
407
+ "</extra_t_id_4>",
408
+ "</extra_t_id_5>",
409
+ "</extra_t_id_6>",
410
+ "</extra_t_id_7>",
411
+ "</extra_t_id_8>",
412
+ "</extra_t_id_9>",
413
+ "</extra_t_id_10>",
414
+ "</extra_t_id_11>",
415
+ "</extra_t_id_12>",
416
+ "</extra_t_id_13>",
417
+ "</extra_t_id_14>",
418
+ "</extra_t_id_15>",
419
+ "</extra_t_id_16>",
420
+ "</extra_t_id_17>",
421
+ "</extra_t_id_18>",
422
+ "</extra_t_id_19>",
423
+ "</extra_t_id_20>",
424
+ "</extra_t_id_21>",
425
+ "</extra_t_id_22>",
426
+ "</extra_t_id_23>",
427
+ "</extra_t_id_24>",
428
+ "</extra_t_id_25>",
429
+ "</extra_t_id_26>",
430
+ "</extra_t_id_27>",
431
+ "</extra_t_id_28>",
432
+ "</extra_t_id_29>",
433
+ "</extra_t_id_30>",
434
+ "</extra_t_id_31>",
435
+ "</extra_t_id_32>",
436
+ "</extra_t_id_33>",
437
+ "</extra_t_id_34>",
438
+ "</extra_t_id_35>",
439
+ "</extra_t_id_36>",
440
+ "</extra_t_id_37>",
441
+ "</extra_t_id_38>",
442
+ "</extra_t_id_39>",
443
+ "</extra_t_id_40>",
444
+ "</extra_t_id_41>",
445
+ "</extra_t_id_42>",
446
+ "</extra_t_id_43>",
447
+ "</extra_t_id_44>",
448
+ "</extra_t_id_45>",
449
+ "</extra_t_id_46>",
450
+ "</extra_t_id_47>",
451
+ "</extra_t_id_48>",
452
+ "</extra_t_id_49>",
453
+ "</extra_t_id_50>",
454
+ "</extra_t_id_51>",
455
+ "</extra_t_id_52>",
456
+ "</extra_t_id_53>",
457
+ "</extra_t_id_54>",
458
+ "</extra_t_id_55>",
459
+ "</extra_t_id_56>",
460
+ "</extra_t_id_57>",
461
+ "</extra_t_id_58>",
462
+ "</extra_t_id_59>",
463
+ "</extra_t_id_60>",
464
+ "</extra_t_id_61>",
465
+ "</extra_t_id_62>",
466
+ "</extra_t_id_63>",
467
+ "</extra_t_id_64>",
468
+ "</extra_t_id_65>",
469
+ "</extra_t_id_66>",
470
+ "</extra_t_id_67>",
471
+ "</extra_t_id_68>",
472
+ "</extra_t_id_69>",
473
+ "</extra_t_id_70>",
474
+ "</extra_t_id_71>",
475
+ "</extra_t_id_72>",
476
+ "</extra_t_id_73>",
477
+ "</extra_t_id_74>",
478
+ "</extra_t_id_75>",
479
+ "</extra_t_id_76>",
480
+ "</extra_t_id_77>",
481
+ "</extra_t_id_78>",
482
+ "</extra_t_id_79>",
483
+ "</extra_t_id_80>",
484
+ "</extra_t_id_81>",
485
+ "</extra_t_id_82>",
486
+ "</extra_t_id_83>",
487
+ "</extra_t_id_84>",
488
+ "</extra_t_id_85>",
489
+ "</extra_t_id_86>",
490
+ "</extra_t_id_87>",
491
+ "</extra_t_id_88>",
492
+ "</extra_t_id_89>",
493
+ "</extra_t_id_90>",
494
+ "</extra_t_id_91>",
495
+ "</extra_t_id_92>",
496
+ "</extra_t_id_93>",
497
+ "</extra_t_id_94>",
498
+ "</extra_t_id_95>",
499
+ "</extra_t_id_96>",
500
+ "</extra_t_id_97>",
501
+ "</extra_t_id_98>",
502
+ "</extra_t_id_99>",
503
+ "<loc_0>",
504
+ "<loc_1>",
505
+ "<loc_2>",
506
+ "<loc_3>",
507
+ "<loc_4>",
508
+ "<loc_5>",
509
+ "<loc_6>",
510
+ "<loc_7>",
511
+ "<loc_8>",
512
+ "<loc_9>",
513
+ "<loc_10>",
514
+ "<loc_11>",
515
+ "<loc_12>",
516
+ "<loc_13>",
517
+ "<loc_14>",
518
+ "<loc_15>",
519
+ "<loc_16>",
520
+ "<loc_17>",
521
+ "<loc_18>",
522
+ "<loc_19>",
523
+ "<loc_20>",
524
+ "<loc_21>",
525
+ "<loc_22>",
526
+ "<loc_23>",
527
+ "<loc_24>",
528
+ "<loc_25>",
529
+ "<loc_26>",
530
+ "<loc_27>",
531
+ "<loc_28>",
532
+ "<loc_29>",
533
+ "<loc_30>",
534
+ "<loc_31>",
535
+ "<loc_32>",
536
+ "<loc_33>",
537
+ "<loc_34>",
538
+ "<loc_35>",
539
+ "<loc_36>",
540
+ "<loc_37>",
541
+ "<loc_38>",
542
+ "<loc_39>",
543
+ "<loc_40>",
544
+ "<loc_41>",
545
+ "<loc_42>",
546
+ "<loc_43>",
547
+ "<loc_44>",
548
+ "<loc_45>",
549
+ "<loc_46>",
550
+ "<loc_47>",
551
+ "<loc_48>",
552
+ "<loc_49>",
553
+ "<loc_50>",
554
+ "<loc_51>",
555
+ "<loc_52>",
556
+ "<loc_53>",
557
+ "<loc_54>",
558
+ "<loc_55>",
559
+ "<loc_56>",
560
+ "<loc_57>",
561
+ "<loc_58>",
562
+ "<loc_59>",
563
+ "<loc_60>",
564
+ "<loc_61>",
565
+ "<loc_62>",
566
+ "<loc_63>",
567
+ "<loc_64>",
568
+ "<loc_65>",
569
+ "<loc_66>",
570
+ "<loc_67>",
571
+ "<loc_68>",
572
+ "<loc_69>",
573
+ "<loc_70>",
574
+ "<loc_71>",
575
+ "<loc_72>",
576
+ "<loc_73>",
577
+ "<loc_74>",
578
+ "<loc_75>",
579
+ "<loc_76>",
580
+ "<loc_77>",
581
+ "<loc_78>",
582
+ "<loc_79>",
583
+ "<loc_80>",
584
+ "<loc_81>",
585
+ "<loc_82>",
586
+ "<loc_83>",
587
+ "<loc_84>",
588
+ "<loc_85>",
589
+ "<loc_86>",
590
+ "<loc_87>",
591
+ "<loc_88>",
592
+ "<loc_89>",
593
+ "<loc_90>",
594
+ "<loc_91>",
595
+ "<loc_92>",
596
+ "<loc_93>",
597
+ "<loc_94>",
598
+ "<loc_95>",
599
+ "<loc_96>",
600
+ "<loc_97>",
601
+ "<loc_98>",
602
+ "<loc_99>",
603
+ "<loc_100>",
604
+ "<loc_101>",
605
+ "<loc_102>",
606
+ "<loc_103>",
607
+ "<loc_104>",
608
+ "<loc_105>",
609
+ "<loc_106>",
610
+ "<loc_107>",
611
+ "<loc_108>",
612
+ "<loc_109>",
613
+ "<loc_110>",
614
+ "<loc_111>",
615
+ "<loc_112>",
616
+ "<loc_113>",
617
+ "<loc_114>",
618
+ "<loc_115>",
619
+ "<loc_116>",
620
+ "<loc_117>",
621
+ "<loc_118>",
622
+ "<loc_119>",
623
+ "<loc_120>",
624
+ "<loc_121>",
625
+ "<loc_122>",
626
+ "<loc_123>",
627
+ "<loc_124>",
628
+ "<loc_125>",
629
+ "<loc_126>",
630
+ "<loc_127>",
631
+ "<loc_128>",
632
+ "<loc_129>",
633
+ "<loc_130>",
634
+ "<loc_131>",
635
+ "<loc_132>",
636
+ "<loc_133>",
637
+ "<loc_134>",
638
+ "<loc_135>",
639
+ "<loc_136>",
640
+ "<loc_137>",
641
+ "<loc_138>",
642
+ "<loc_139>",
643
+ "<loc_140>",
644
+ "<loc_141>",
645
+ "<loc_142>",
646
+ "<loc_143>",
647
+ "<loc_144>",
648
+ "<loc_145>",
649
+ "<loc_146>",
650
+ "<loc_147>",
651
+ "<loc_148>",
652
+ "<loc_149>",
653
+ "<loc_150>",
654
+ "<loc_151>",
655
+ "<loc_152>",
656
+ "<loc_153>",
657
+ "<loc_154>",
658
+ "<loc_155>",
659
+ "<loc_156>",
660
+ "<loc_157>",
661
+ "<loc_158>",
662
+ "<loc_159>",
663
+ "<loc_160>",
664
+ "<loc_161>",
665
+ "<loc_162>",
666
+ "<loc_163>",
667
+ "<loc_164>",
668
+ "<loc_165>",
669
+ "<loc_166>",
670
+ "<loc_167>",
671
+ "<loc_168>",
672
+ "<loc_169>",
673
+ "<loc_170>",
674
+ "<loc_171>",
675
+ "<loc_172>",
676
+ "<loc_173>",
677
+ "<loc_174>",
678
+ "<loc_175>",
679
+ "<loc_176>",
680
+ "<loc_177>",
681
+ "<loc_178>",
682
+ "<loc_179>",
683
+ "<loc_180>",
684
+ "<loc_181>",
685
+ "<loc_182>",
686
+ "<loc_183>",
687
+ "<loc_184>",
688
+ "<loc_185>",
689
+ "<loc_186>",
690
+ "<loc_187>",
691
+ "<loc_188>",
692
+ "<loc_189>",
693
+ "<loc_190>",
694
+ "<loc_191>",
695
+ "<loc_192>",
696
+ "<loc_193>",
697
+ "<loc_194>",
698
+ "<loc_195>",
699
+ "<loc_196>",
700
+ "<loc_197>",
701
+ "<loc_198>",
702
+ "<loc_199>",
703
+ "<loc_200>",
704
+ "<loc_201>",
705
+ "<loc_202>",
706
+ "<loc_203>",
707
+ "<loc_204>",
708
+ "<loc_205>",
709
+ "<loc_206>",
710
+ "<loc_207>",
711
+ "<loc_208>",
712
+ "<loc_209>",
713
+ "<loc_210>",
714
+ "<loc_211>",
715
+ "<loc_212>",
716
+ "<loc_213>",
717
+ "<loc_214>",
718
+ "<loc_215>",
719
+ "<loc_216>",
720
+ "<loc_217>",
721
+ "<loc_218>",
722
+ "<loc_219>",
723
+ "<loc_220>",
724
+ "<loc_221>",
725
+ "<loc_222>",
726
+ "<loc_223>",
727
+ "<loc_224>",
728
+ "<loc_225>",
729
+ "<loc_226>",
730
+ "<loc_227>",
731
+ "<loc_228>",
732
+ "<loc_229>",
733
+ "<loc_230>",
734
+ "<loc_231>",
735
+ "<loc_232>",
736
+ "<loc_233>",
737
+ "<loc_234>",
738
+ "<loc_235>",
739
+ "<loc_236>",
740
+ "<loc_237>",
741
+ "<loc_238>",
742
+ "<loc_239>",
743
+ "<loc_240>",
744
+ "<loc_241>",
745
+ "<loc_242>",
746
+ "<loc_243>",
747
+ "<loc_244>",
748
+ "<loc_245>",
749
+ "<loc_246>",
750
+ "<loc_247>",
751
+ "<loc_248>",
752
+ "<loc_249>",
753
+ "<loc_250>",
754
+ "<loc_251>",
755
+ "<loc_252>",
756
+ "<loc_253>",
757
+ "<loc_254>",
758
+ "<loc_255>",
759
+ "<loc_256>",
760
+ "<loc_257>",
761
+ "<loc_258>",
762
+ "<loc_259>",
763
+ "<loc_260>",
764
+ "<loc_261>",
765
+ "<loc_262>",
766
+ "<loc_263>",
767
+ "<loc_264>",
768
+ "<loc_265>",
769
+ "<loc_266>",
770
+ "<loc_267>",
771
+ "<loc_268>",
772
+ "<loc_269>",
773
+ "<loc_270>",
774
+ "<loc_271>",
775
+ "<loc_272>",
776
+ "<loc_273>",
777
+ "<loc_274>",
778
+ "<loc_275>",
779
+ "<loc_276>",
780
+ "<loc_277>",
781
+ "<loc_278>",
782
+ "<loc_279>",
783
+ "<loc_280>",
784
+ "<loc_281>",
785
+ "<loc_282>",
786
+ "<loc_283>",
787
+ "<loc_284>",
788
+ "<loc_285>",
789
+ "<loc_286>",
790
+ "<loc_287>",
791
+ "<loc_288>",
792
+ "<loc_289>",
793
+ "<loc_290>",
794
+ "<loc_291>",
795
+ "<loc_292>",
796
+ "<loc_293>",
797
+ "<loc_294>",
798
+ "<loc_295>",
799
+ "<loc_296>",
800
+ "<loc_297>",
801
+ "<loc_298>",
802
+ "<loc_299>",
803
+ "<loc_300>",
804
+ "<loc_301>",
805
+ "<loc_302>",
806
+ "<loc_303>",
807
+ "<loc_304>",
808
+ "<loc_305>",
809
+ "<loc_306>",
810
+ "<loc_307>",
811
+ "<loc_308>",
812
+ "<loc_309>",
813
+ "<loc_310>",
814
+ "<loc_311>",
815
+ "<loc_312>",
816
+ "<loc_313>",
817
+ "<loc_314>",
818
+ "<loc_315>",
819
+ "<loc_316>",
820
+ "<loc_317>",
821
+ "<loc_318>",
822
+ "<loc_319>",
823
+ "<loc_320>",
824
+ "<loc_321>",
825
+ "<loc_322>",
826
+ "<loc_323>",
827
+ "<loc_324>",
828
+ "<loc_325>",
829
+ "<loc_326>",
830
+ "<loc_327>",
831
+ "<loc_328>",
832
+ "<loc_329>",
833
+ "<loc_330>",
834
+ "<loc_331>",
835
+ "<loc_332>",
836
+ "<loc_333>",
837
+ "<loc_334>",
838
+ "<loc_335>",
839
+ "<loc_336>",
840
+ "<loc_337>",
841
+ "<loc_338>",
842
+ "<loc_339>",
843
+ "<loc_340>",
844
+ "<loc_341>",
845
+ "<loc_342>",
846
+ "<loc_343>",
847
+ "<loc_344>",
848
+ "<loc_345>",
849
+ "<loc_346>",
850
+ "<loc_347>",
851
+ "<loc_348>",
852
+ "<loc_349>",
853
+ "<loc_350>",
854
+ "<loc_351>",
855
+ "<loc_352>",
856
+ "<loc_353>",
857
+ "<loc_354>",
858
+ "<loc_355>",
859
+ "<loc_356>",
860
+ "<loc_357>",
861
+ "<loc_358>",
862
+ "<loc_359>",
863
+ "<loc_360>",
864
+ "<loc_361>",
865
+ "<loc_362>",
866
+ "<loc_363>",
867
+ "<loc_364>",
868
+ "<loc_365>",
869
+ "<loc_366>",
870
+ "<loc_367>",
871
+ "<loc_368>",
872
+ "<loc_369>",
873
+ "<loc_370>",
874
+ "<loc_371>",
875
+ "<loc_372>",
876
+ "<loc_373>",
877
+ "<loc_374>",
878
+ "<loc_375>",
879
+ "<loc_376>",
880
+ "<loc_377>",
881
+ "<loc_378>",
882
+ "<loc_379>",
883
+ "<loc_380>",
884
+ "<loc_381>",
885
+ "<loc_382>",
886
+ "<loc_383>",
887
+ "<loc_384>",
888
+ "<loc_385>",
889
+ "<loc_386>",
890
+ "<loc_387>",
891
+ "<loc_388>",
892
+ "<loc_389>",
893
+ "<loc_390>",
894
+ "<loc_391>",
895
+ "<loc_392>",
896
+ "<loc_393>",
897
+ "<loc_394>",
898
+ "<loc_395>",
899
+ "<loc_396>",
900
+ "<loc_397>",
901
+ "<loc_398>",
902
+ "<loc_399>",
903
+ "<loc_400>",
904
+ "<loc_401>",
905
+ "<loc_402>",
906
+ "<loc_403>",
907
+ "<loc_404>",
908
+ "<loc_405>",
909
+ "<loc_406>",
910
+ "<loc_407>",
911
+ "<loc_408>",
912
+ "<loc_409>",
913
+ "<loc_410>",
914
+ "<loc_411>",
915
+ "<loc_412>",
916
+ "<loc_413>",
917
+ "<loc_414>",
918
+ "<loc_415>",
919
+ "<loc_416>",
920
+ "<loc_417>",
921
+ "<loc_418>",
922
+ "<loc_419>",
923
+ "<loc_420>",
924
+ "<loc_421>",
925
+ "<loc_422>",
926
+ "<loc_423>",
927
+ "<loc_424>",
928
+ "<loc_425>",
929
+ "<loc_426>",
930
+ "<loc_427>",
931
+ "<loc_428>",
932
+ "<loc_429>",
933
+ "<loc_430>",
934
+ "<loc_431>",
935
+ "<loc_432>",
936
+ "<loc_433>",
937
+ "<loc_434>",
938
+ "<loc_435>",
939
+ "<loc_436>",
940
+ "<loc_437>",
941
+ "<loc_438>",
942
+ "<loc_439>",
943
+ "<loc_440>",
944
+ "<loc_441>",
945
+ "<loc_442>",
946
+ "<loc_443>",
947
+ "<loc_444>",
948
+ "<loc_445>",
949
+ "<loc_446>",
950
+ "<loc_447>",
951
+ "<loc_448>",
952
+ "<loc_449>",
953
+ "<loc_450>",
954
+ "<loc_451>",
955
+ "<loc_452>",
956
+ "<loc_453>",
957
+ "<loc_454>",
958
+ "<loc_455>",
959
+ "<loc_456>",
960
+ "<loc_457>",
961
+ "<loc_458>",
962
+ "<loc_459>",
963
+ "<loc_460>",
964
+ "<loc_461>",
965
+ "<loc_462>",
966
+ "<loc_463>",
967
+ "<loc_464>",
968
+ "<loc_465>",
969
+ "<loc_466>",
970
+ "<loc_467>",
971
+ "<loc_468>",
972
+ "<loc_469>",
973
+ "<loc_470>",
974
+ "<loc_471>",
975
+ "<loc_472>",
976
+ "<loc_473>",
977
+ "<loc_474>",
978
+ "<loc_475>",
979
+ "<loc_476>",
980
+ "<loc_477>",
981
+ "<loc_478>",
982
+ "<loc_479>",
983
+ "<loc_480>",
984
+ "<loc_481>",
985
+ "<loc_482>",
986
+ "<loc_483>",
987
+ "<loc_484>",
988
+ "<loc_485>",
989
+ "<loc_486>",
990
+ "<loc_487>",
991
+ "<loc_488>",
992
+ "<loc_489>",
993
+ "<loc_490>",
994
+ "<loc_491>",
995
+ "<loc_492>",
996
+ "<loc_493>",
997
+ "<loc_494>",
998
+ "<loc_495>",
999
+ "<loc_496>",
1000
+ "<loc_497>",
1001
+ "<loc_498>",
1002
+ "<loc_499>",
1003
+ "<loc_500>",
1004
+ "<other_0>",
1005
+ "<other_1>",
1006
+ "<other_2>",
1007
+ "<other_3>",
1008
+ "<other_4>",
1009
+ "<other_5>",
1010
+ "<other_6>",
1011
+ "<other_7>",
1012
+ "<other_8>",
1013
+ "<other_9>",
1014
+ "<other_10>",
1015
+ "<other_11>",
1016
+ "<other_12>",
1017
+ "<other_13>",
1018
+ "<other_14>",
1019
+ "<other_15>",
1020
+ "<other_16>",
1021
+ "<other_17>",
1022
+ "<other_18>",
1023
+ "<other_19>",
1024
+ "<other_20>",
1025
+ "<other_21>",
1026
+ "<other_22>",
1027
+ "<other_23>",
1028
+ "<other_24>",
1029
+ "<other_25>",
1030
+ "<other_26>",
1031
+ "<other_27>",
1032
+ "<other_28>",
1033
+ "<other_29>",
1034
+ "<other_30>",
1035
+ "<other_31>",
1036
+ "<other_32>",
1037
+ "<other_33>",
1038
+ "<other_34>",
1039
+ "<other_35>",
1040
+ "<other_36>",
1041
+ "<other_37>",
1042
+ "<other_38>",
1043
+ "<other_39>",
1044
+ "<other_40>",
1045
+ "<other_41>",
1046
+ "<other_42>",
1047
+ "<other_43>",
1048
+ "<other_44>",
1049
+ "<other_45>",
1050
+ "<other_46>",
1051
+ "<other_47>",
1052
+ "<other_48>",
1053
+ "<other_49>",
1054
+ "<other_50>",
1055
+ "<other_51>",
1056
+ "<other_52>",
1057
+ "<other_53>",
1058
+ "<other_54>",
1059
+ "<other_55>",
1060
+ "<other_56>",
1061
+ "<other_57>",
1062
+ "<other_58>",
1063
+ "<other_59>",
1064
+ "<other_60>",
1065
+ "<other_61>",
1066
+ "<other_62>",
1067
+ "<other_63>",
1068
+ "<other_64>",
1069
+ "<other_65>",
1070
+ "<other_66>",
1071
+ "<other_67>",
1072
+ "<other_68>",
1073
+ "<other_69>",
1074
+ "<other_70>",
1075
+ "<other_71>",
1076
+ "<other_72>",
1077
+ "<other_73>",
1078
+ "<other_74>",
1079
+ "<other_75>",
1080
+ "<other_76>",
1081
+ "<other_77>",
1082
+ "<other_78>",
1083
+ "<other_79>",
1084
+ "<other_80>",
1085
+ "<other_81>",
1086
+ "<other_82>",
1087
+ "<other_83>",
1088
+ "<other_84>",
1089
+ "<other_85>",
1090
+ "<other_86>",
1091
+ "<other_87>",
1092
+ "<other_88>",
1093
+ "<other_89>",
1094
+ "<other_90>",
1095
+ "<other_91>",
1096
+ "<other_92>",
1097
+ "<other_93>",
1098
+ "<other_94>",
1099
+ "<other_95>",
1100
+ "<other_96>",
1101
+ "<other_97>",
1102
+ "<other_98>",
1103
+ "<other_99>",
1104
+ "<other_100>",
1105
+ "<other_101>",
1106
+ "<other_102>",
1107
+ "<other_103>",
1108
+ "<other_104>",
1109
+ "<other_105>",
1110
+ "<other_106>",
1111
+ "<other_107>",
1112
+ "<other_108>",
1113
+ "<other_109>",
1114
+ "<other_110>",
1115
+ "<other_111>",
1116
+ "<other_112>",
1117
+ "<other_113>",
1118
+ "<other_114>",
1119
+ "<other_115>",
1120
+ "<other_116>",
1121
+ "<other_117>",
1122
+ "<other_118>",
1123
+ "<other_119>",
1124
+ "<other_120>",
1125
+ "<other_121>",
1126
+ "<other_122>",
1127
+ "<other_123>",
1128
+ "<other_124>",
1129
+ "<other_125>",
1130
+ "<other_126>",
1131
+ "<other_127>",
1132
+ "<other_128>",
1133
+ "<other_129>",
1134
+ "<other_130>",
1135
+ "<other_131>",
1136
+ "<other_132>",
1137
+ "<other_133>",
1138
+ "<other_134>",
1139
+ "<other_135>",
1140
+ "<other_136>",
1141
+ "<other_137>",
1142
+ "<other_138>",
1143
+ "<other_139>",
1144
+ "<other_140>",
1145
+ "<other_141>",
1146
+ "<other_142>",
1147
+ "<other_143>",
1148
+ "<other_144>",
1149
+ "<other_145>",
1150
+ "<other_146>",
1151
+ "<other_147>",
1152
+ "<other_148>",
1153
+ "<other_149>",
1154
+ "<other_150>",
1155
+ "<other_151>",
1156
+ "<other_152>",
1157
+ "<other_153>",
1158
+ "<other_154>",
1159
+ "<other_155>",
1160
+ "<other_156>",
1161
+ "<other_157>",
1162
+ "<other_158>",
1163
+ "<other_159>",
1164
+ "<other_160>",
1165
+ "<other_161>",
1166
+ "<other_162>",
1167
+ "<other_163>",
1168
+ "<other_164>",
1169
+ "<other_165>",
1170
+ "<other_166>",
1171
+ "<other_167>",
1172
+ "<other_168>",
1173
+ "<other_169>",
1174
+ "<other_170>",
1175
+ "<other_171>",
1176
+ "<other_172>",
1177
+ "<other_173>",
1178
+ "<other_174>",
1179
+ "<other_175>",
1180
+ "<other_176>",
1181
+ "<other_177>",
1182
+ "<other_178>",
1183
+ "<other_179>",
1184
+ "<other_180>",
1185
+ "<other_181>",
1186
+ "<other_182>",
1187
+ "<other_183>",
1188
+ "<other_184>",
1189
+ "<other_185>",
1190
+ "<other_186>",
1191
+ "<other_187>",
1192
+ "<other_188>",
1193
+ "<other_189>",
1194
+ "<other_190>",
1195
+ "<other_191>",
1196
+ "<other_192>",
1197
+ "<other_193>",
1198
+ "<other_194>",
1199
+ "<other_195>",
1200
+ "<other_196>",
1201
+ "<other_197>",
1202
+ "<other_198>",
1203
+ "<other_199>"
1204
+ ],
1205
+ "clean_up_tokenization_spaces": true,
1206
+ "eos_token": "</s>",
1207
+ "extra_ids": 100,
1208
+ "model_max_length": 512,
1209
+ "pad_token": "<pad>",
1210
+ "tokenizer_class": "AlfredTokenizer",
1211
+ "unk_token": "<unk>",
1212
+ "use_fast": true
1213
+ }
train_results.json ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "epoch": 7.64,
3
+ "train_loss": 0.17318119727208145,
4
+ "train_runtime": 2340.6865,
5
+ "train_samples": 733,
6
+ "train_samples_per_second": 2.392,
7
+ "train_steps_per_second": 0.299
8
+ }
trainer_state.json ADDED
@@ -0,0 +1,2202 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "best_metric": null,
3
+ "best_model_checkpoint": null,
4
+ "epoch": 7.639836289222374,
5
+ "global_step": 700,
6
+ "is_hyper_param_search": false,
7
+ "is_local_process_zero": true,
8
+ "is_world_process_zero": true,
9
+ "log_history": [
10
+ {
11
+ "epoch": 0.02,
12
+ "learning_rate": 4.992846924177397e-05,
13
+ "loss": 1.3788,
14
+ "step": 2
15
+ },
16
+ {
17
+ "epoch": 0.04,
18
+ "learning_rate": 4.9785407725321894e-05,
19
+ "loss": 0.5217,
20
+ "step": 4
21
+ },
22
+ {
23
+ "epoch": 0.07,
24
+ "learning_rate": 4.964234620886982e-05,
25
+ "loss": 0.7379,
26
+ "step": 6
27
+ },
28
+ {
29
+ "epoch": 0.09,
30
+ "learning_rate": 4.949928469241774e-05,
31
+ "loss": 0.8497,
32
+ "step": 8
33
+ },
34
+ {
35
+ "epoch": 0.11,
36
+ "learning_rate": 4.935622317596566e-05,
37
+ "loss": 1.0302,
38
+ "step": 10
39
+ },
40
+ {
41
+ "epoch": 0.13,
42
+ "learning_rate": 4.921316165951359e-05,
43
+ "loss": 1.1518,
44
+ "step": 12
45
+ },
46
+ {
47
+ "epoch": 0.15,
48
+ "learning_rate": 4.907010014306152e-05,
49
+ "loss": 1.1296,
50
+ "step": 14
51
+ },
52
+ {
53
+ "epoch": 0.17,
54
+ "learning_rate": 4.8927038626609446e-05,
55
+ "loss": 0.6699,
56
+ "step": 16
57
+ },
58
+ {
59
+ "epoch": 0.2,
60
+ "learning_rate": 4.878397711015737e-05,
61
+ "loss": 0.4857,
62
+ "step": 18
63
+ },
64
+ {
65
+ "epoch": 0.22,
66
+ "learning_rate": 4.864091559370529e-05,
67
+ "loss": 0.7828,
68
+ "step": 20
69
+ },
70
+ {
71
+ "epoch": 0.24,
72
+ "learning_rate": 4.8497854077253216e-05,
73
+ "loss": 0.2882,
74
+ "step": 22
75
+ },
76
+ {
77
+ "epoch": 0.26,
78
+ "learning_rate": 4.8354792560801146e-05,
79
+ "loss": 0.6443,
80
+ "step": 24
81
+ },
82
+ {
83
+ "epoch": 0.28,
84
+ "learning_rate": 4.8211731044349076e-05,
85
+ "loss": 0.5256,
86
+ "step": 26
87
+ },
88
+ {
89
+ "epoch": 0.31,
90
+ "learning_rate": 4.8068669527897e-05,
91
+ "loss": 0.3803,
92
+ "step": 28
93
+ },
94
+ {
95
+ "epoch": 0.33,
96
+ "learning_rate": 4.792560801144492e-05,
97
+ "loss": 1.0889,
98
+ "step": 30
99
+ },
100
+ {
101
+ "epoch": 0.35,
102
+ "learning_rate": 4.7782546494992845e-05,
103
+ "loss": 0.6033,
104
+ "step": 32
105
+ },
106
+ {
107
+ "epoch": 0.37,
108
+ "learning_rate": 4.7639484978540775e-05,
109
+ "loss": 0.7887,
110
+ "step": 34
111
+ },
112
+ {
113
+ "epoch": 0.39,
114
+ "learning_rate": 4.74964234620887e-05,
115
+ "loss": 1.1805,
116
+ "step": 36
117
+ },
118
+ {
119
+ "epoch": 0.41,
120
+ "learning_rate": 4.735336194563663e-05,
121
+ "loss": 0.6902,
122
+ "step": 38
123
+ },
124
+ {
125
+ "epoch": 0.44,
126
+ "learning_rate": 4.721030042918455e-05,
127
+ "loss": 0.6678,
128
+ "step": 40
129
+ },
130
+ {
131
+ "epoch": 0.46,
132
+ "learning_rate": 4.7067238912732475e-05,
133
+ "loss": 0.5124,
134
+ "step": 42
135
+ },
136
+ {
137
+ "epoch": 0.48,
138
+ "learning_rate": 4.6924177396280405e-05,
139
+ "loss": 0.6896,
140
+ "step": 44
141
+ },
142
+ {
143
+ "epoch": 0.5,
144
+ "learning_rate": 4.678111587982833e-05,
145
+ "loss": 0.4161,
146
+ "step": 46
147
+ },
148
+ {
149
+ "epoch": 0.52,
150
+ "learning_rate": 4.663805436337626e-05,
151
+ "loss": 0.5563,
152
+ "step": 48
153
+ },
154
+ {
155
+ "epoch": 0.55,
156
+ "learning_rate": 4.649499284692418e-05,
157
+ "loss": 0.6571,
158
+ "step": 50
159
+ },
160
+ {
161
+ "epoch": 0.57,
162
+ "learning_rate": 4.6351931330472104e-05,
163
+ "loss": 0.7377,
164
+ "step": 52
165
+ },
166
+ {
167
+ "epoch": 0.59,
168
+ "learning_rate": 4.620886981402003e-05,
169
+ "loss": 0.6157,
170
+ "step": 54
171
+ },
172
+ {
173
+ "epoch": 0.61,
174
+ "learning_rate": 4.606580829756796e-05,
175
+ "loss": 0.5027,
176
+ "step": 56
177
+ },
178
+ {
179
+ "epoch": 0.63,
180
+ "learning_rate": 4.592274678111588e-05,
181
+ "loss": 0.2117,
182
+ "step": 58
183
+ },
184
+ {
185
+ "epoch": 0.65,
186
+ "learning_rate": 4.577968526466381e-05,
187
+ "loss": 0.9052,
188
+ "step": 60
189
+ },
190
+ {
191
+ "epoch": 0.68,
192
+ "learning_rate": 4.563662374821173e-05,
193
+ "loss": 0.399,
194
+ "step": 62
195
+ },
196
+ {
197
+ "epoch": 0.7,
198
+ "learning_rate": 4.5493562231759656e-05,
199
+ "loss": 0.4997,
200
+ "step": 64
201
+ },
202
+ {
203
+ "epoch": 0.72,
204
+ "learning_rate": 4.5350500715307586e-05,
205
+ "loss": 0.4395,
206
+ "step": 66
207
+ },
208
+ {
209
+ "epoch": 0.74,
210
+ "learning_rate": 4.520743919885551e-05,
211
+ "loss": 0.1662,
212
+ "step": 68
213
+ },
214
+ {
215
+ "epoch": 0.76,
216
+ "learning_rate": 4.506437768240343e-05,
217
+ "loss": 0.5636,
218
+ "step": 70
219
+ },
220
+ {
221
+ "epoch": 0.79,
222
+ "learning_rate": 4.492131616595136e-05,
223
+ "loss": 0.6786,
224
+ "step": 72
225
+ },
226
+ {
227
+ "epoch": 0.81,
228
+ "learning_rate": 4.4778254649499286e-05,
229
+ "loss": 0.4574,
230
+ "step": 74
231
+ },
232
+ {
233
+ "epoch": 0.83,
234
+ "learning_rate": 4.4635193133047216e-05,
235
+ "loss": 0.4238,
236
+ "step": 76
237
+ },
238
+ {
239
+ "epoch": 0.85,
240
+ "learning_rate": 4.449213161659514e-05,
241
+ "loss": 0.3291,
242
+ "step": 78
243
+ },
244
+ {
245
+ "epoch": 0.87,
246
+ "learning_rate": 4.434907010014306e-05,
247
+ "loss": 0.3574,
248
+ "step": 80
249
+ },
250
+ {
251
+ "epoch": 0.89,
252
+ "learning_rate": 4.420600858369099e-05,
253
+ "loss": 0.3518,
254
+ "step": 82
255
+ },
256
+ {
257
+ "epoch": 0.92,
258
+ "learning_rate": 4.4062947067238915e-05,
259
+ "loss": 0.23,
260
+ "step": 84
261
+ },
262
+ {
263
+ "epoch": 0.94,
264
+ "learning_rate": 4.391988555078684e-05,
265
+ "loss": 0.2152,
266
+ "step": 86
267
+ },
268
+ {
269
+ "epoch": 0.96,
270
+ "learning_rate": 4.377682403433477e-05,
271
+ "loss": 0.3338,
272
+ "step": 88
273
+ },
274
+ {
275
+ "epoch": 0.98,
276
+ "learning_rate": 4.363376251788269e-05,
277
+ "loss": 0.3607,
278
+ "step": 90
279
+ },
280
+ {
281
+ "epoch": 1.0,
282
+ "learning_rate": 4.3490701001430615e-05,
283
+ "loss": 0.3892,
284
+ "step": 92
285
+ },
286
+ {
287
+ "epoch": 1.03,
288
+ "learning_rate": 4.3347639484978544e-05,
289
+ "loss": 0.2106,
290
+ "step": 94
291
+ },
292
+ {
293
+ "epoch": 1.05,
294
+ "learning_rate": 4.320457796852647e-05,
295
+ "loss": 0.1276,
296
+ "step": 96
297
+ },
298
+ {
299
+ "epoch": 1.07,
300
+ "learning_rate": 4.30615164520744e-05,
301
+ "loss": 0.3623,
302
+ "step": 98
303
+ },
304
+ {
305
+ "epoch": 1.09,
306
+ "learning_rate": 4.291845493562232e-05,
307
+ "loss": 0.4991,
308
+ "step": 100
309
+ },
310
+ {
311
+ "epoch": 1.09,
312
+ "eval_loss": 0.3262758255004883,
313
+ "eval_mean_accuracy": 0.9896188286589687,
314
+ "eval_mean_iou": 0.9881906931208085,
315
+ "eval_overall_accuracy": 0.9896188286589687,
316
+ "eval_runtime": 55.002,
317
+ "eval_samples_per_second": 1.491,
318
+ "eval_steps_per_second": 1.491,
319
+ "step": 100
320
+ },
321
+ {
322
+ "epoch": 1.11,
323
+ "learning_rate": 4.2775393419170244e-05,
324
+ "loss": 0.2167,
325
+ "step": 102
326
+ },
327
+ {
328
+ "epoch": 1.14,
329
+ "learning_rate": 4.263233190271817e-05,
330
+ "loss": 0.3756,
331
+ "step": 104
332
+ },
333
+ {
334
+ "epoch": 1.16,
335
+ "learning_rate": 4.24892703862661e-05,
336
+ "loss": 0.1664,
337
+ "step": 106
338
+ },
339
+ {
340
+ "epoch": 1.18,
341
+ "learning_rate": 4.234620886981403e-05,
342
+ "loss": 0.1695,
343
+ "step": 108
344
+ },
345
+ {
346
+ "epoch": 1.2,
347
+ "learning_rate": 4.220314735336195e-05,
348
+ "loss": 0.2253,
349
+ "step": 110
350
+ },
351
+ {
352
+ "epoch": 1.22,
353
+ "learning_rate": 4.206008583690987e-05,
354
+ "loss": 0.1768,
355
+ "step": 112
356
+ },
357
+ {
358
+ "epoch": 1.24,
359
+ "learning_rate": 4.1917024320457796e-05,
360
+ "loss": 0.4289,
361
+ "step": 114
362
+ },
363
+ {
364
+ "epoch": 1.27,
365
+ "learning_rate": 4.1773962804005726e-05,
366
+ "loss": 0.3052,
367
+ "step": 116
368
+ },
369
+ {
370
+ "epoch": 1.29,
371
+ "learning_rate": 4.163090128755365e-05,
372
+ "loss": 0.4193,
373
+ "step": 118
374
+ },
375
+ {
376
+ "epoch": 1.31,
377
+ "learning_rate": 4.148783977110158e-05,
378
+ "loss": 0.2688,
379
+ "step": 120
380
+ },
381
+ {
382
+ "epoch": 1.33,
383
+ "learning_rate": 4.13447782546495e-05,
384
+ "loss": 0.247,
385
+ "step": 122
386
+ },
387
+ {
388
+ "epoch": 1.35,
389
+ "learning_rate": 4.1201716738197426e-05,
390
+ "loss": 0.4405,
391
+ "step": 124
392
+ },
393
+ {
394
+ "epoch": 1.38,
395
+ "learning_rate": 4.105865522174535e-05,
396
+ "loss": 0.1879,
397
+ "step": 126
398
+ },
399
+ {
400
+ "epoch": 1.4,
401
+ "learning_rate": 4.091559370529328e-05,
402
+ "loss": 0.3799,
403
+ "step": 128
404
+ },
405
+ {
406
+ "epoch": 1.42,
407
+ "learning_rate": 4.077253218884121e-05,
408
+ "loss": 0.4004,
409
+ "step": 130
410
+ },
411
+ {
412
+ "epoch": 1.44,
413
+ "learning_rate": 4.062947067238913e-05,
414
+ "loss": 0.1783,
415
+ "step": 132
416
+ },
417
+ {
418
+ "epoch": 1.46,
419
+ "learning_rate": 4.0486409155937055e-05,
420
+ "loss": 0.1776,
421
+ "step": 134
422
+ },
423
+ {
424
+ "epoch": 1.48,
425
+ "learning_rate": 4.034334763948498e-05,
426
+ "loss": 0.3506,
427
+ "step": 136
428
+ },
429
+ {
430
+ "epoch": 1.51,
431
+ "learning_rate": 4.02002861230329e-05,
432
+ "loss": 0.2568,
433
+ "step": 138
434
+ },
435
+ {
436
+ "epoch": 1.53,
437
+ "learning_rate": 4.005722460658083e-05,
438
+ "loss": 0.2463,
439
+ "step": 140
440
+ },
441
+ {
442
+ "epoch": 1.55,
443
+ "learning_rate": 3.991416309012876e-05,
444
+ "loss": 0.2455,
445
+ "step": 142
446
+ },
447
+ {
448
+ "epoch": 1.57,
449
+ "learning_rate": 3.9771101573676684e-05,
450
+ "loss": 0.1783,
451
+ "step": 144
452
+ },
453
+ {
454
+ "epoch": 1.59,
455
+ "learning_rate": 3.962804005722461e-05,
456
+ "loss": 0.2466,
457
+ "step": 146
458
+ },
459
+ {
460
+ "epoch": 1.62,
461
+ "learning_rate": 3.948497854077253e-05,
462
+ "loss": 0.0962,
463
+ "step": 148
464
+ },
465
+ {
466
+ "epoch": 1.64,
467
+ "learning_rate": 3.9341917024320454e-05,
468
+ "loss": 0.3038,
469
+ "step": 150
470
+ },
471
+ {
472
+ "epoch": 1.66,
473
+ "learning_rate": 3.919885550786839e-05,
474
+ "loss": 0.2171,
475
+ "step": 152
476
+ },
477
+ {
478
+ "epoch": 1.68,
479
+ "learning_rate": 3.9055793991416314e-05,
480
+ "loss": 0.1379,
481
+ "step": 154
482
+ },
483
+ {
484
+ "epoch": 1.7,
485
+ "learning_rate": 3.891273247496424e-05,
486
+ "loss": 0.201,
487
+ "step": 156
488
+ },
489
+ {
490
+ "epoch": 1.72,
491
+ "learning_rate": 3.876967095851216e-05,
492
+ "loss": 0.1565,
493
+ "step": 158
494
+ },
495
+ {
496
+ "epoch": 1.75,
497
+ "learning_rate": 3.862660944206008e-05,
498
+ "loss": 0.2379,
499
+ "step": 160
500
+ },
501
+ {
502
+ "epoch": 1.77,
503
+ "learning_rate": 3.848354792560801e-05,
504
+ "loss": 0.4046,
505
+ "step": 162
506
+ },
507
+ {
508
+ "epoch": 1.79,
509
+ "learning_rate": 3.834048640915594e-05,
510
+ "loss": 0.3037,
511
+ "step": 164
512
+ },
513
+ {
514
+ "epoch": 1.81,
515
+ "learning_rate": 3.8197424892703866e-05,
516
+ "loss": 0.3166,
517
+ "step": 166
518
+ },
519
+ {
520
+ "epoch": 1.83,
521
+ "learning_rate": 3.805436337625179e-05,
522
+ "loss": 0.2345,
523
+ "step": 168
524
+ },
525
+ {
526
+ "epoch": 1.86,
527
+ "learning_rate": 3.791130185979971e-05,
528
+ "loss": 0.1861,
529
+ "step": 170
530
+ },
531
+ {
532
+ "epoch": 1.88,
533
+ "learning_rate": 3.776824034334764e-05,
534
+ "loss": 0.2288,
535
+ "step": 172
536
+ },
537
+ {
538
+ "epoch": 1.9,
539
+ "learning_rate": 3.7625178826895566e-05,
540
+ "loss": 0.1466,
541
+ "step": 174
542
+ },
543
+ {
544
+ "epoch": 1.92,
545
+ "learning_rate": 3.7482117310443496e-05,
546
+ "loss": 0.2041,
547
+ "step": 176
548
+ },
549
+ {
550
+ "epoch": 1.94,
551
+ "learning_rate": 3.733905579399142e-05,
552
+ "loss": 0.1903,
553
+ "step": 178
554
+ },
555
+ {
556
+ "epoch": 1.96,
557
+ "learning_rate": 3.719599427753934e-05,
558
+ "loss": 0.1148,
559
+ "step": 180
560
+ },
561
+ {
562
+ "epoch": 1.99,
563
+ "learning_rate": 3.7052932761087265e-05,
564
+ "loss": 0.2697,
565
+ "step": 182
566
+ },
567
+ {
568
+ "epoch": 2.01,
569
+ "learning_rate": 3.6909871244635195e-05,
570
+ "loss": 0.1863,
571
+ "step": 184
572
+ },
573
+ {
574
+ "epoch": 2.03,
575
+ "learning_rate": 3.676680972818312e-05,
576
+ "loss": 0.1878,
577
+ "step": 186
578
+ },
579
+ {
580
+ "epoch": 2.05,
581
+ "learning_rate": 3.662374821173105e-05,
582
+ "loss": 0.2695,
583
+ "step": 188
584
+ },
585
+ {
586
+ "epoch": 2.07,
587
+ "learning_rate": 3.648068669527897e-05,
588
+ "loss": 0.1143,
589
+ "step": 190
590
+ },
591
+ {
592
+ "epoch": 2.1,
593
+ "learning_rate": 3.6337625178826894e-05,
594
+ "loss": 0.3368,
595
+ "step": 192
596
+ },
597
+ {
598
+ "epoch": 2.12,
599
+ "learning_rate": 3.6194563662374824e-05,
600
+ "loss": 0.1655,
601
+ "step": 194
602
+ },
603
+ {
604
+ "epoch": 2.14,
605
+ "learning_rate": 3.605150214592275e-05,
606
+ "loss": 0.1828,
607
+ "step": 196
608
+ },
609
+ {
610
+ "epoch": 2.16,
611
+ "learning_rate": 3.590844062947068e-05,
612
+ "loss": 0.2303,
613
+ "step": 198
614
+ },
615
+ {
616
+ "epoch": 2.18,
617
+ "learning_rate": 3.57653791130186e-05,
618
+ "loss": 0.1502,
619
+ "step": 200
620
+ },
621
+ {
622
+ "epoch": 2.18,
623
+ "eval_loss": 0.21178419888019562,
624
+ "eval_mean_accuracy": 0.9928825075624809,
625
+ "eval_mean_iou": 0.9821621066848852,
626
+ "eval_overall_accuracy": 0.9928825075624809,
627
+ "eval_runtime": 52.4894,
628
+ "eval_samples_per_second": 1.562,
629
+ "eval_steps_per_second": 1.562,
630
+ "step": 200
631
+ },
632
+ {
633
+ "epoch": 2.2,
634
+ "learning_rate": 3.5622317596566524e-05,
635
+ "loss": 0.2199,
636
+ "step": 202
637
+ },
638
+ {
639
+ "epoch": 2.23,
640
+ "learning_rate": 3.5479256080114454e-05,
641
+ "loss": 0.0723,
642
+ "step": 204
643
+ },
644
+ {
645
+ "epoch": 2.25,
646
+ "learning_rate": 3.533619456366238e-05,
647
+ "loss": 0.1089,
648
+ "step": 206
649
+ },
650
+ {
651
+ "epoch": 2.27,
652
+ "learning_rate": 3.51931330472103e-05,
653
+ "loss": 0.1227,
654
+ "step": 208
655
+ },
656
+ {
657
+ "epoch": 2.29,
658
+ "learning_rate": 3.505007153075823e-05,
659
+ "loss": 0.2158,
660
+ "step": 210
661
+ },
662
+ {
663
+ "epoch": 2.31,
664
+ "learning_rate": 3.490701001430615e-05,
665
+ "loss": 0.1056,
666
+ "step": 212
667
+ },
668
+ {
669
+ "epoch": 2.34,
670
+ "learning_rate": 3.4763948497854076e-05,
671
+ "loss": 0.1084,
672
+ "step": 214
673
+ },
674
+ {
675
+ "epoch": 2.36,
676
+ "learning_rate": 3.4620886981402006e-05,
677
+ "loss": 0.1366,
678
+ "step": 216
679
+ },
680
+ {
681
+ "epoch": 2.38,
682
+ "learning_rate": 3.447782546494993e-05,
683
+ "loss": 0.2432,
684
+ "step": 218
685
+ },
686
+ {
687
+ "epoch": 2.4,
688
+ "learning_rate": 3.433476394849785e-05,
689
+ "loss": 0.097,
690
+ "step": 220
691
+ },
692
+ {
693
+ "epoch": 2.42,
694
+ "learning_rate": 3.419170243204578e-05,
695
+ "loss": 0.0939,
696
+ "step": 222
697
+ },
698
+ {
699
+ "epoch": 2.44,
700
+ "learning_rate": 3.4048640915593706e-05,
701
+ "loss": 0.1585,
702
+ "step": 224
703
+ },
704
+ {
705
+ "epoch": 2.47,
706
+ "learning_rate": 3.3905579399141636e-05,
707
+ "loss": 0.1568,
708
+ "step": 226
709
+ },
710
+ {
711
+ "epoch": 2.49,
712
+ "learning_rate": 3.376251788268956e-05,
713
+ "loss": 0.1748,
714
+ "step": 228
715
+ },
716
+ {
717
+ "epoch": 2.51,
718
+ "learning_rate": 3.361945636623748e-05,
719
+ "loss": 0.0692,
720
+ "step": 230
721
+ },
722
+ {
723
+ "epoch": 2.53,
724
+ "learning_rate": 3.347639484978541e-05,
725
+ "loss": 0.1398,
726
+ "step": 232
727
+ },
728
+ {
729
+ "epoch": 2.55,
730
+ "learning_rate": 3.3333333333333335e-05,
731
+ "loss": 0.1204,
732
+ "step": 234
733
+ },
734
+ {
735
+ "epoch": 2.58,
736
+ "learning_rate": 3.3190271816881265e-05,
737
+ "loss": 0.1072,
738
+ "step": 236
739
+ },
740
+ {
741
+ "epoch": 2.6,
742
+ "learning_rate": 3.304721030042919e-05,
743
+ "loss": 0.1954,
744
+ "step": 238
745
+ },
746
+ {
747
+ "epoch": 2.62,
748
+ "learning_rate": 3.290414878397711e-05,
749
+ "loss": 0.0943,
750
+ "step": 240
751
+ },
752
+ {
753
+ "epoch": 2.64,
754
+ "learning_rate": 3.2761087267525034e-05,
755
+ "loss": 0.0585,
756
+ "step": 242
757
+ },
758
+ {
759
+ "epoch": 2.66,
760
+ "learning_rate": 3.2618025751072964e-05,
761
+ "loss": 0.3031,
762
+ "step": 244
763
+ },
764
+ {
765
+ "epoch": 2.68,
766
+ "learning_rate": 3.247496423462089e-05,
767
+ "loss": 0.1795,
768
+ "step": 246
769
+ },
770
+ {
771
+ "epoch": 2.71,
772
+ "learning_rate": 3.233190271816882e-05,
773
+ "loss": 0.1613,
774
+ "step": 248
775
+ },
776
+ {
777
+ "epoch": 2.73,
778
+ "learning_rate": 3.218884120171674e-05,
779
+ "loss": 0.2235,
780
+ "step": 250
781
+ },
782
+ {
783
+ "epoch": 2.75,
784
+ "learning_rate": 3.2045779685264664e-05,
785
+ "loss": 0.1681,
786
+ "step": 252
787
+ },
788
+ {
789
+ "epoch": 2.77,
790
+ "learning_rate": 3.190271816881259e-05,
791
+ "loss": 0.1427,
792
+ "step": 254
793
+ },
794
+ {
795
+ "epoch": 2.79,
796
+ "learning_rate": 3.175965665236052e-05,
797
+ "loss": 0.0803,
798
+ "step": 256
799
+ },
800
+ {
801
+ "epoch": 2.82,
802
+ "learning_rate": 3.161659513590845e-05,
803
+ "loss": 0.2156,
804
+ "step": 258
805
+ },
806
+ {
807
+ "epoch": 2.84,
808
+ "learning_rate": 3.147353361945637e-05,
809
+ "loss": 0.0963,
810
+ "step": 260
811
+ },
812
+ {
813
+ "epoch": 2.86,
814
+ "learning_rate": 3.133047210300429e-05,
815
+ "loss": 0.1093,
816
+ "step": 262
817
+ },
818
+ {
819
+ "epoch": 2.88,
820
+ "learning_rate": 3.1187410586552216e-05,
821
+ "loss": 0.1208,
822
+ "step": 264
823
+ },
824
+ {
825
+ "epoch": 2.9,
826
+ "learning_rate": 3.104434907010014e-05,
827
+ "loss": 0.0578,
828
+ "step": 266
829
+ },
830
+ {
831
+ "epoch": 2.92,
832
+ "learning_rate": 3.0901287553648076e-05,
833
+ "loss": 0.3852,
834
+ "step": 268
835
+ },
836
+ {
837
+ "epoch": 2.95,
838
+ "learning_rate": 3.0758226037196e-05,
839
+ "loss": 0.2104,
840
+ "step": 270
841
+ },
842
+ {
843
+ "epoch": 2.97,
844
+ "learning_rate": 3.061516452074392e-05,
845
+ "loss": 0.113,
846
+ "step": 272
847
+ },
848
+ {
849
+ "epoch": 2.99,
850
+ "learning_rate": 3.0472103004291846e-05,
851
+ "loss": 0.1354,
852
+ "step": 274
853
+ },
854
+ {
855
+ "epoch": 3.01,
856
+ "learning_rate": 3.0329041487839772e-05,
857
+ "loss": 0.1031,
858
+ "step": 276
859
+ },
860
+ {
861
+ "epoch": 3.03,
862
+ "learning_rate": 3.0185979971387695e-05,
863
+ "loss": 0.2269,
864
+ "step": 278
865
+ },
866
+ {
867
+ "epoch": 3.06,
868
+ "learning_rate": 3.0042918454935625e-05,
869
+ "loss": 0.0424,
870
+ "step": 280
871
+ },
872
+ {
873
+ "epoch": 3.08,
874
+ "learning_rate": 2.9899856938483552e-05,
875
+ "loss": 0.1628,
876
+ "step": 282
877
+ },
878
+ {
879
+ "epoch": 3.1,
880
+ "learning_rate": 2.9756795422031475e-05,
881
+ "loss": 0.1547,
882
+ "step": 284
883
+ },
884
+ {
885
+ "epoch": 3.12,
886
+ "learning_rate": 2.9613733905579398e-05,
887
+ "loss": 0.1423,
888
+ "step": 286
889
+ },
890
+ {
891
+ "epoch": 3.14,
892
+ "learning_rate": 2.9470672389127325e-05,
893
+ "loss": 0.0569,
894
+ "step": 288
895
+ },
896
+ {
897
+ "epoch": 3.17,
898
+ "learning_rate": 2.9327610872675255e-05,
899
+ "loss": 0.0794,
900
+ "step": 290
901
+ },
902
+ {
903
+ "epoch": 3.19,
904
+ "learning_rate": 2.9184549356223178e-05,
905
+ "loss": 0.0678,
906
+ "step": 292
907
+ },
908
+ {
909
+ "epoch": 3.21,
910
+ "learning_rate": 2.9041487839771104e-05,
911
+ "loss": 0.2423,
912
+ "step": 294
913
+ },
914
+ {
915
+ "epoch": 3.23,
916
+ "learning_rate": 2.8898426323319027e-05,
917
+ "loss": 0.0822,
918
+ "step": 296
919
+ },
920
+ {
921
+ "epoch": 3.25,
922
+ "learning_rate": 2.8755364806866954e-05,
923
+ "loss": 0.0357,
924
+ "step": 298
925
+ },
926
+ {
927
+ "epoch": 3.27,
928
+ "learning_rate": 2.8612303290414884e-05,
929
+ "loss": 0.0778,
930
+ "step": 300
931
+ },
932
+ {
933
+ "epoch": 3.27,
934
+ "eval_loss": 0.13035576045513153,
935
+ "eval_mean_accuracy": 0.9916725327419916,
936
+ "eval_mean_iou": 0.9897188616696087,
937
+ "eval_overall_accuracy": 0.9916725327419916,
938
+ "eval_runtime": 53.4723,
939
+ "eval_samples_per_second": 1.534,
940
+ "eval_steps_per_second": 1.534,
941
+ "step": 300
942
+ },
943
+ {
944
+ "epoch": 3.3,
945
+ "learning_rate": 2.8469241773962807e-05,
946
+ "loss": 0.1081,
947
+ "step": 302
948
+ },
949
+ {
950
+ "epoch": 3.32,
951
+ "learning_rate": 2.832618025751073e-05,
952
+ "loss": 0.0786,
953
+ "step": 304
954
+ },
955
+ {
956
+ "epoch": 3.34,
957
+ "learning_rate": 2.8183118741058657e-05,
958
+ "loss": 0.1036,
959
+ "step": 306
960
+ },
961
+ {
962
+ "epoch": 3.36,
963
+ "learning_rate": 2.804005722460658e-05,
964
+ "loss": 0.0547,
965
+ "step": 308
966
+ },
967
+ {
968
+ "epoch": 3.38,
969
+ "learning_rate": 2.7896995708154506e-05,
970
+ "loss": 0.1789,
971
+ "step": 310
972
+ },
973
+ {
974
+ "epoch": 3.41,
975
+ "learning_rate": 2.7753934191702436e-05,
976
+ "loss": 0.189,
977
+ "step": 312
978
+ },
979
+ {
980
+ "epoch": 3.43,
981
+ "learning_rate": 2.761087267525036e-05,
982
+ "loss": 0.0834,
983
+ "step": 314
984
+ },
985
+ {
986
+ "epoch": 3.45,
987
+ "learning_rate": 2.7467811158798286e-05,
988
+ "loss": 0.0266,
989
+ "step": 316
990
+ },
991
+ {
992
+ "epoch": 3.47,
993
+ "learning_rate": 2.732474964234621e-05,
994
+ "loss": 0.0753,
995
+ "step": 318
996
+ },
997
+ {
998
+ "epoch": 3.49,
999
+ "learning_rate": 2.7181688125894132e-05,
1000
+ "loss": 0.1251,
1001
+ "step": 320
1002
+ },
1003
+ {
1004
+ "epoch": 3.51,
1005
+ "learning_rate": 2.7038626609442062e-05,
1006
+ "loss": 0.1321,
1007
+ "step": 322
1008
+ },
1009
+ {
1010
+ "epoch": 3.54,
1011
+ "learning_rate": 2.689556509298999e-05,
1012
+ "loss": 0.0684,
1013
+ "step": 324
1014
+ },
1015
+ {
1016
+ "epoch": 3.56,
1017
+ "learning_rate": 2.6752503576537912e-05,
1018
+ "loss": 0.1108,
1019
+ "step": 326
1020
+ },
1021
+ {
1022
+ "epoch": 3.58,
1023
+ "learning_rate": 2.660944206008584e-05,
1024
+ "loss": 0.0836,
1025
+ "step": 328
1026
+ },
1027
+ {
1028
+ "epoch": 3.6,
1029
+ "learning_rate": 2.6466380543633762e-05,
1030
+ "loss": 0.1304,
1031
+ "step": 330
1032
+ },
1033
+ {
1034
+ "epoch": 3.62,
1035
+ "learning_rate": 2.632331902718169e-05,
1036
+ "loss": 0.1112,
1037
+ "step": 332
1038
+ },
1039
+ {
1040
+ "epoch": 3.65,
1041
+ "learning_rate": 2.6180257510729618e-05,
1042
+ "loss": 0.0814,
1043
+ "step": 334
1044
+ },
1045
+ {
1046
+ "epoch": 3.67,
1047
+ "learning_rate": 2.603719599427754e-05,
1048
+ "loss": 0.1137,
1049
+ "step": 336
1050
+ },
1051
+ {
1052
+ "epoch": 3.69,
1053
+ "learning_rate": 2.5894134477825465e-05,
1054
+ "loss": 0.1987,
1055
+ "step": 338
1056
+ },
1057
+ {
1058
+ "epoch": 3.71,
1059
+ "learning_rate": 2.575107296137339e-05,
1060
+ "loss": 0.1028,
1061
+ "step": 340
1062
+ },
1063
+ {
1064
+ "epoch": 3.73,
1065
+ "learning_rate": 2.5608011444921314e-05,
1066
+ "loss": 0.0484,
1067
+ "step": 342
1068
+ },
1069
+ {
1070
+ "epoch": 3.75,
1071
+ "learning_rate": 2.5464949928469244e-05,
1072
+ "loss": 0.0176,
1073
+ "step": 344
1074
+ },
1075
+ {
1076
+ "epoch": 3.78,
1077
+ "learning_rate": 2.532188841201717e-05,
1078
+ "loss": 0.099,
1079
+ "step": 346
1080
+ },
1081
+ {
1082
+ "epoch": 3.8,
1083
+ "learning_rate": 2.5178826895565094e-05,
1084
+ "loss": 0.1342,
1085
+ "step": 348
1086
+ },
1087
+ {
1088
+ "epoch": 3.82,
1089
+ "learning_rate": 2.5035765379113017e-05,
1090
+ "loss": 0.1454,
1091
+ "step": 350
1092
+ },
1093
+ {
1094
+ "epoch": 3.84,
1095
+ "learning_rate": 2.4892703862660947e-05,
1096
+ "loss": 0.0829,
1097
+ "step": 352
1098
+ },
1099
+ {
1100
+ "epoch": 3.86,
1101
+ "learning_rate": 2.474964234620887e-05,
1102
+ "loss": 0.1169,
1103
+ "step": 354
1104
+ },
1105
+ {
1106
+ "epoch": 3.89,
1107
+ "learning_rate": 2.4606580829756797e-05,
1108
+ "loss": 0.1092,
1109
+ "step": 356
1110
+ },
1111
+ {
1112
+ "epoch": 3.91,
1113
+ "learning_rate": 2.4463519313304723e-05,
1114
+ "loss": 0.1034,
1115
+ "step": 358
1116
+ },
1117
+ {
1118
+ "epoch": 3.93,
1119
+ "learning_rate": 2.4320457796852646e-05,
1120
+ "loss": 0.1419,
1121
+ "step": 360
1122
+ },
1123
+ {
1124
+ "epoch": 3.95,
1125
+ "learning_rate": 2.4177396280400573e-05,
1126
+ "loss": 0.0744,
1127
+ "step": 362
1128
+ },
1129
+ {
1130
+ "epoch": 3.97,
1131
+ "learning_rate": 2.40343347639485e-05,
1132
+ "loss": 0.057,
1133
+ "step": 364
1134
+ },
1135
+ {
1136
+ "epoch": 3.99,
1137
+ "learning_rate": 2.3891273247496423e-05,
1138
+ "loss": 0.0729,
1139
+ "step": 366
1140
+ },
1141
+ {
1142
+ "epoch": 4.02,
1143
+ "learning_rate": 2.374821173104435e-05,
1144
+ "loss": 0.0747,
1145
+ "step": 368
1146
+ },
1147
+ {
1148
+ "epoch": 4.04,
1149
+ "learning_rate": 2.3605150214592276e-05,
1150
+ "loss": 0.0602,
1151
+ "step": 370
1152
+ },
1153
+ {
1154
+ "epoch": 4.06,
1155
+ "learning_rate": 2.3462088698140202e-05,
1156
+ "loss": 0.0717,
1157
+ "step": 372
1158
+ },
1159
+ {
1160
+ "epoch": 4.08,
1161
+ "learning_rate": 2.331902718168813e-05,
1162
+ "loss": 0.0782,
1163
+ "step": 374
1164
+ },
1165
+ {
1166
+ "epoch": 4.1,
1167
+ "learning_rate": 2.3175965665236052e-05,
1168
+ "loss": 0.0601,
1169
+ "step": 376
1170
+ },
1171
+ {
1172
+ "epoch": 4.13,
1173
+ "learning_rate": 2.303290414878398e-05,
1174
+ "loss": 0.0789,
1175
+ "step": 378
1176
+ },
1177
+ {
1178
+ "epoch": 4.15,
1179
+ "learning_rate": 2.2889842632331905e-05,
1180
+ "loss": 0.1474,
1181
+ "step": 380
1182
+ },
1183
+ {
1184
+ "epoch": 4.17,
1185
+ "learning_rate": 2.2746781115879828e-05,
1186
+ "loss": 0.1377,
1187
+ "step": 382
1188
+ },
1189
+ {
1190
+ "epoch": 4.19,
1191
+ "learning_rate": 2.2603719599427755e-05,
1192
+ "loss": 0.0492,
1193
+ "step": 384
1194
+ },
1195
+ {
1196
+ "epoch": 4.21,
1197
+ "learning_rate": 2.246065808297568e-05,
1198
+ "loss": 0.1255,
1199
+ "step": 386
1200
+ },
1201
+ {
1202
+ "epoch": 4.23,
1203
+ "learning_rate": 2.2317596566523608e-05,
1204
+ "loss": 0.0544,
1205
+ "step": 388
1206
+ },
1207
+ {
1208
+ "epoch": 4.26,
1209
+ "learning_rate": 2.217453505007153e-05,
1210
+ "loss": 0.0556,
1211
+ "step": 390
1212
+ },
1213
+ {
1214
+ "epoch": 4.28,
1215
+ "learning_rate": 2.2031473533619458e-05,
1216
+ "loss": 0.1652,
1217
+ "step": 392
1218
+ },
1219
+ {
1220
+ "epoch": 4.3,
1221
+ "learning_rate": 2.1888412017167384e-05,
1222
+ "loss": 0.176,
1223
+ "step": 394
1224
+ },
1225
+ {
1226
+ "epoch": 4.32,
1227
+ "learning_rate": 2.1745350500715307e-05,
1228
+ "loss": 0.2248,
1229
+ "step": 396
1230
+ },
1231
+ {
1232
+ "epoch": 4.34,
1233
+ "learning_rate": 2.1602288984263234e-05,
1234
+ "loss": 0.0476,
1235
+ "step": 398
1236
+ },
1237
+ {
1238
+ "epoch": 4.37,
1239
+ "learning_rate": 2.145922746781116e-05,
1240
+ "loss": 0.0453,
1241
+ "step": 400
1242
+ },
1243
+ {
1244
+ "epoch": 4.37,
1245
+ "eval_loss": 0.11382640153169632,
1246
+ "eval_mean_accuracy": 0.9965599947968539,
1247
+ "eval_mean_iou": 0.9956430592959893,
1248
+ "eval_overall_accuracy": 0.9965599947968539,
1249
+ "eval_runtime": 52.7129,
1250
+ "eval_samples_per_second": 1.556,
1251
+ "eval_steps_per_second": 1.556,
1252
+ "step": 400
1253
+ },
1254
+ {
1255
+ "epoch": 4.39,
1256
+ "learning_rate": 2.1316165951359084e-05,
1257
+ "loss": 0.0581,
1258
+ "step": 402
1259
+ },
1260
+ {
1261
+ "epoch": 4.41,
1262
+ "learning_rate": 2.1173104434907013e-05,
1263
+ "loss": 0.126,
1264
+ "step": 404
1265
+ },
1266
+ {
1267
+ "epoch": 4.43,
1268
+ "learning_rate": 2.1030042918454937e-05,
1269
+ "loss": 0.0238,
1270
+ "step": 406
1271
+ },
1272
+ {
1273
+ "epoch": 4.45,
1274
+ "learning_rate": 2.0886981402002863e-05,
1275
+ "loss": 0.0412,
1276
+ "step": 408
1277
+ },
1278
+ {
1279
+ "epoch": 4.47,
1280
+ "learning_rate": 2.074391988555079e-05,
1281
+ "loss": 0.153,
1282
+ "step": 410
1283
+ },
1284
+ {
1285
+ "epoch": 4.5,
1286
+ "learning_rate": 2.0600858369098713e-05,
1287
+ "loss": 0.0517,
1288
+ "step": 412
1289
+ },
1290
+ {
1291
+ "epoch": 4.52,
1292
+ "learning_rate": 2.045779685264664e-05,
1293
+ "loss": 0.0794,
1294
+ "step": 414
1295
+ },
1296
+ {
1297
+ "epoch": 4.54,
1298
+ "learning_rate": 2.0314735336194566e-05,
1299
+ "loss": 0.0939,
1300
+ "step": 416
1301
+ },
1302
+ {
1303
+ "epoch": 4.56,
1304
+ "learning_rate": 2.017167381974249e-05,
1305
+ "loss": 0.0576,
1306
+ "step": 418
1307
+ },
1308
+ {
1309
+ "epoch": 4.58,
1310
+ "learning_rate": 2.0028612303290416e-05,
1311
+ "loss": 0.088,
1312
+ "step": 420
1313
+ },
1314
+ {
1315
+ "epoch": 4.61,
1316
+ "learning_rate": 1.9885550786838342e-05,
1317
+ "loss": 0.0481,
1318
+ "step": 422
1319
+ },
1320
+ {
1321
+ "epoch": 4.63,
1322
+ "learning_rate": 1.9742489270386265e-05,
1323
+ "loss": 0.0536,
1324
+ "step": 424
1325
+ },
1326
+ {
1327
+ "epoch": 4.65,
1328
+ "learning_rate": 1.9599427753934195e-05,
1329
+ "loss": 0.0264,
1330
+ "step": 426
1331
+ },
1332
+ {
1333
+ "epoch": 4.67,
1334
+ "learning_rate": 1.945636623748212e-05,
1335
+ "loss": 0.0511,
1336
+ "step": 428
1337
+ },
1338
+ {
1339
+ "epoch": 4.69,
1340
+ "learning_rate": 1.931330472103004e-05,
1341
+ "loss": 0.0538,
1342
+ "step": 430
1343
+ },
1344
+ {
1345
+ "epoch": 4.71,
1346
+ "learning_rate": 1.917024320457797e-05,
1347
+ "loss": 0.1385,
1348
+ "step": 432
1349
+ },
1350
+ {
1351
+ "epoch": 4.74,
1352
+ "learning_rate": 1.9027181688125895e-05,
1353
+ "loss": 0.0231,
1354
+ "step": 434
1355
+ },
1356
+ {
1357
+ "epoch": 4.76,
1358
+ "learning_rate": 1.888412017167382e-05,
1359
+ "loss": 0.059,
1360
+ "step": 436
1361
+ },
1362
+ {
1363
+ "epoch": 4.78,
1364
+ "learning_rate": 1.8741058655221748e-05,
1365
+ "loss": 0.0552,
1366
+ "step": 438
1367
+ },
1368
+ {
1369
+ "epoch": 4.8,
1370
+ "learning_rate": 1.859799713876967e-05,
1371
+ "loss": 0.0539,
1372
+ "step": 440
1373
+ },
1374
+ {
1375
+ "epoch": 4.82,
1376
+ "learning_rate": 1.8454935622317597e-05,
1377
+ "loss": 0.0386,
1378
+ "step": 442
1379
+ },
1380
+ {
1381
+ "epoch": 4.85,
1382
+ "learning_rate": 1.8311874105865524e-05,
1383
+ "loss": 0.0335,
1384
+ "step": 444
1385
+ },
1386
+ {
1387
+ "epoch": 4.87,
1388
+ "learning_rate": 1.8168812589413447e-05,
1389
+ "loss": 0.0474,
1390
+ "step": 446
1391
+ },
1392
+ {
1393
+ "epoch": 4.89,
1394
+ "learning_rate": 1.8025751072961374e-05,
1395
+ "loss": 0.046,
1396
+ "step": 448
1397
+ },
1398
+ {
1399
+ "epoch": 4.91,
1400
+ "learning_rate": 1.78826895565093e-05,
1401
+ "loss": 0.072,
1402
+ "step": 450
1403
+ },
1404
+ {
1405
+ "epoch": 4.93,
1406
+ "learning_rate": 1.7739628040057227e-05,
1407
+ "loss": 0.0668,
1408
+ "step": 452
1409
+ },
1410
+ {
1411
+ "epoch": 4.95,
1412
+ "learning_rate": 1.759656652360515e-05,
1413
+ "loss": 0.0343,
1414
+ "step": 454
1415
+ },
1416
+ {
1417
+ "epoch": 4.98,
1418
+ "learning_rate": 1.7453505007153077e-05,
1419
+ "loss": 0.0693,
1420
+ "step": 456
1421
+ },
1422
+ {
1423
+ "epoch": 5.0,
1424
+ "learning_rate": 1.7310443490701003e-05,
1425
+ "loss": 0.0665,
1426
+ "step": 458
1427
+ },
1428
+ {
1429
+ "epoch": 5.02,
1430
+ "learning_rate": 1.7167381974248926e-05,
1431
+ "loss": 0.0561,
1432
+ "step": 460
1433
+ },
1434
+ {
1435
+ "epoch": 5.04,
1436
+ "learning_rate": 1.7024320457796853e-05,
1437
+ "loss": 0.1113,
1438
+ "step": 462
1439
+ },
1440
+ {
1441
+ "epoch": 5.06,
1442
+ "learning_rate": 1.688125894134478e-05,
1443
+ "loss": 0.0417,
1444
+ "step": 464
1445
+ },
1446
+ {
1447
+ "epoch": 5.09,
1448
+ "learning_rate": 1.6738197424892706e-05,
1449
+ "loss": 0.0381,
1450
+ "step": 466
1451
+ },
1452
+ {
1453
+ "epoch": 5.11,
1454
+ "learning_rate": 1.6595135908440632e-05,
1455
+ "loss": 0.0849,
1456
+ "step": 468
1457
+ },
1458
+ {
1459
+ "epoch": 5.13,
1460
+ "learning_rate": 1.6452074391988556e-05,
1461
+ "loss": 0.0403,
1462
+ "step": 470
1463
+ },
1464
+ {
1465
+ "epoch": 5.15,
1466
+ "learning_rate": 1.6309012875536482e-05,
1467
+ "loss": 0.055,
1468
+ "step": 472
1469
+ },
1470
+ {
1471
+ "epoch": 5.17,
1472
+ "learning_rate": 1.616595135908441e-05,
1473
+ "loss": 0.0684,
1474
+ "step": 474
1475
+ },
1476
+ {
1477
+ "epoch": 5.2,
1478
+ "learning_rate": 1.6022889842632332e-05,
1479
+ "loss": 0.0299,
1480
+ "step": 476
1481
+ },
1482
+ {
1483
+ "epoch": 5.22,
1484
+ "learning_rate": 1.587982832618026e-05,
1485
+ "loss": 0.0519,
1486
+ "step": 478
1487
+ },
1488
+ {
1489
+ "epoch": 5.24,
1490
+ "learning_rate": 1.5736766809728185e-05,
1491
+ "loss": 0.0284,
1492
+ "step": 480
1493
+ },
1494
+ {
1495
+ "epoch": 5.26,
1496
+ "learning_rate": 1.5593705293276108e-05,
1497
+ "loss": 0.0648,
1498
+ "step": 482
1499
+ },
1500
+ {
1501
+ "epoch": 5.28,
1502
+ "learning_rate": 1.5450643776824038e-05,
1503
+ "loss": 0.0304,
1504
+ "step": 484
1505
+ },
1506
+ {
1507
+ "epoch": 5.3,
1508
+ "learning_rate": 1.530758226037196e-05,
1509
+ "loss": 0.0529,
1510
+ "step": 486
1511
+ },
1512
+ {
1513
+ "epoch": 5.33,
1514
+ "learning_rate": 1.5164520743919886e-05,
1515
+ "loss": 0.1253,
1516
+ "step": 488
1517
+ },
1518
+ {
1519
+ "epoch": 5.35,
1520
+ "learning_rate": 1.5021459227467813e-05,
1521
+ "loss": 0.0181,
1522
+ "step": 490
1523
+ },
1524
+ {
1525
+ "epoch": 5.37,
1526
+ "learning_rate": 1.4878397711015737e-05,
1527
+ "loss": 0.078,
1528
+ "step": 492
1529
+ },
1530
+ {
1531
+ "epoch": 5.39,
1532
+ "learning_rate": 1.4735336194563662e-05,
1533
+ "loss": 0.0367,
1534
+ "step": 494
1535
+ },
1536
+ {
1537
+ "epoch": 5.41,
1538
+ "learning_rate": 1.4592274678111589e-05,
1539
+ "loss": 0.0178,
1540
+ "step": 496
1541
+ },
1542
+ {
1543
+ "epoch": 5.44,
1544
+ "learning_rate": 1.4449213161659514e-05,
1545
+ "loss": 0.0223,
1546
+ "step": 498
1547
+ },
1548
+ {
1549
+ "epoch": 5.46,
1550
+ "learning_rate": 1.4306151645207442e-05,
1551
+ "loss": 0.0726,
1552
+ "step": 500
1553
+ },
1554
+ {
1555
+ "epoch": 5.46,
1556
+ "eval_loss": 0.08142166584730148,
1557
+ "eval_mean_accuracy": 0.9988557281727799,
1558
+ "eval_mean_iou": 0.9979275271013349,
1559
+ "eval_overall_accuracy": 0.9988557281727799,
1560
+ "eval_runtime": 52.3323,
1561
+ "eval_samples_per_second": 1.567,
1562
+ "eval_steps_per_second": 1.567,
1563
+ "step": 500
1564
+ },
1565
+ {
1566
+ "epoch": 5.48,
1567
+ "learning_rate": 1.4163090128755365e-05,
1568
+ "loss": 0.0606,
1569
+ "step": 502
1570
+ },
1571
+ {
1572
+ "epoch": 5.5,
1573
+ "learning_rate": 1.402002861230329e-05,
1574
+ "loss": 0.0495,
1575
+ "step": 504
1576
+ },
1577
+ {
1578
+ "epoch": 5.52,
1579
+ "learning_rate": 1.3876967095851218e-05,
1580
+ "loss": 0.0273,
1581
+ "step": 506
1582
+ },
1583
+ {
1584
+ "epoch": 5.54,
1585
+ "learning_rate": 1.3733905579399143e-05,
1586
+ "loss": 0.0246,
1587
+ "step": 508
1588
+ },
1589
+ {
1590
+ "epoch": 5.57,
1591
+ "learning_rate": 1.3590844062947066e-05,
1592
+ "loss": 0.0801,
1593
+ "step": 510
1594
+ },
1595
+ {
1596
+ "epoch": 5.59,
1597
+ "learning_rate": 1.3447782546494994e-05,
1598
+ "loss": 0.0768,
1599
+ "step": 512
1600
+ },
1601
+ {
1602
+ "epoch": 5.61,
1603
+ "learning_rate": 1.330472103004292e-05,
1604
+ "loss": 0.118,
1605
+ "step": 514
1606
+ },
1607
+ {
1608
+ "epoch": 5.63,
1609
+ "learning_rate": 1.3161659513590846e-05,
1610
+ "loss": 0.0252,
1611
+ "step": 516
1612
+ },
1613
+ {
1614
+ "epoch": 5.65,
1615
+ "learning_rate": 1.301859799713877e-05,
1616
+ "loss": 0.0413,
1617
+ "step": 518
1618
+ },
1619
+ {
1620
+ "epoch": 5.68,
1621
+ "learning_rate": 1.2875536480686696e-05,
1622
+ "loss": 0.0249,
1623
+ "step": 520
1624
+ },
1625
+ {
1626
+ "epoch": 5.7,
1627
+ "learning_rate": 1.2732474964234622e-05,
1628
+ "loss": 0.1209,
1629
+ "step": 522
1630
+ },
1631
+ {
1632
+ "epoch": 5.72,
1633
+ "learning_rate": 1.2589413447782547e-05,
1634
+ "loss": 0.0087,
1635
+ "step": 524
1636
+ },
1637
+ {
1638
+ "epoch": 5.74,
1639
+ "learning_rate": 1.2446351931330473e-05,
1640
+ "loss": 0.0604,
1641
+ "step": 526
1642
+ },
1643
+ {
1644
+ "epoch": 5.76,
1645
+ "learning_rate": 1.2303290414878398e-05,
1646
+ "loss": 0.0635,
1647
+ "step": 528
1648
+ },
1649
+ {
1650
+ "epoch": 5.78,
1651
+ "learning_rate": 1.2160228898426323e-05,
1652
+ "loss": 0.0835,
1653
+ "step": 530
1654
+ },
1655
+ {
1656
+ "epoch": 5.81,
1657
+ "learning_rate": 1.201716738197425e-05,
1658
+ "loss": 0.062,
1659
+ "step": 532
1660
+ },
1661
+ {
1662
+ "epoch": 5.83,
1663
+ "learning_rate": 1.1874105865522175e-05,
1664
+ "loss": 0.0404,
1665
+ "step": 534
1666
+ },
1667
+ {
1668
+ "epoch": 5.85,
1669
+ "learning_rate": 1.1731044349070101e-05,
1670
+ "loss": 0.0121,
1671
+ "step": 536
1672
+ },
1673
+ {
1674
+ "epoch": 5.87,
1675
+ "learning_rate": 1.1587982832618026e-05,
1676
+ "loss": 0.0724,
1677
+ "step": 538
1678
+ },
1679
+ {
1680
+ "epoch": 5.89,
1681
+ "learning_rate": 1.1444921316165953e-05,
1682
+ "loss": 0.0993,
1683
+ "step": 540
1684
+ },
1685
+ {
1686
+ "epoch": 5.92,
1687
+ "learning_rate": 1.1301859799713877e-05,
1688
+ "loss": 0.1099,
1689
+ "step": 542
1690
+ },
1691
+ {
1692
+ "epoch": 5.94,
1693
+ "learning_rate": 1.1158798283261804e-05,
1694
+ "loss": 0.0383,
1695
+ "step": 544
1696
+ },
1697
+ {
1698
+ "epoch": 5.96,
1699
+ "learning_rate": 1.1015736766809729e-05,
1700
+ "loss": 0.0586,
1701
+ "step": 546
1702
+ },
1703
+ {
1704
+ "epoch": 5.98,
1705
+ "learning_rate": 1.0872675250357654e-05,
1706
+ "loss": 0.122,
1707
+ "step": 548
1708
+ },
1709
+ {
1710
+ "epoch": 6.0,
1711
+ "learning_rate": 1.072961373390558e-05,
1712
+ "loss": 0.04,
1713
+ "step": 550
1714
+ },
1715
+ {
1716
+ "epoch": 6.02,
1717
+ "learning_rate": 1.0586552217453507e-05,
1718
+ "loss": 0.0481,
1719
+ "step": 552
1720
+ },
1721
+ {
1722
+ "epoch": 6.05,
1723
+ "learning_rate": 1.0443490701001432e-05,
1724
+ "loss": 0.0449,
1725
+ "step": 554
1726
+ },
1727
+ {
1728
+ "epoch": 6.07,
1729
+ "learning_rate": 1.0300429184549356e-05,
1730
+ "loss": 0.037,
1731
+ "step": 556
1732
+ },
1733
+ {
1734
+ "epoch": 6.09,
1735
+ "learning_rate": 1.0157367668097283e-05,
1736
+ "loss": 0.0274,
1737
+ "step": 558
1738
+ },
1739
+ {
1740
+ "epoch": 6.11,
1741
+ "learning_rate": 1.0014306151645208e-05,
1742
+ "loss": 0.021,
1743
+ "step": 560
1744
+ },
1745
+ {
1746
+ "epoch": 6.13,
1747
+ "learning_rate": 9.871244635193133e-06,
1748
+ "loss": 0.0307,
1749
+ "step": 562
1750
+ },
1751
+ {
1752
+ "epoch": 6.16,
1753
+ "learning_rate": 9.72818311874106e-06,
1754
+ "loss": 0.0312,
1755
+ "step": 564
1756
+ },
1757
+ {
1758
+ "epoch": 6.18,
1759
+ "learning_rate": 9.585121602288986e-06,
1760
+ "loss": 0.0527,
1761
+ "step": 566
1762
+ },
1763
+ {
1764
+ "epoch": 6.2,
1765
+ "learning_rate": 9.44206008583691e-06,
1766
+ "loss": 0.0373,
1767
+ "step": 568
1768
+ },
1769
+ {
1770
+ "epoch": 6.22,
1771
+ "learning_rate": 9.298998569384835e-06,
1772
+ "loss": 0.0315,
1773
+ "step": 570
1774
+ },
1775
+ {
1776
+ "epoch": 6.24,
1777
+ "learning_rate": 9.155937052932762e-06,
1778
+ "loss": 0.0477,
1779
+ "step": 572
1780
+ },
1781
+ {
1782
+ "epoch": 6.26,
1783
+ "learning_rate": 9.012875536480687e-06,
1784
+ "loss": 0.0416,
1785
+ "step": 574
1786
+ },
1787
+ {
1788
+ "epoch": 6.29,
1789
+ "learning_rate": 8.869814020028613e-06,
1790
+ "loss": 0.0452,
1791
+ "step": 576
1792
+ },
1793
+ {
1794
+ "epoch": 6.31,
1795
+ "learning_rate": 8.726752503576538e-06,
1796
+ "loss": 0.0261,
1797
+ "step": 578
1798
+ },
1799
+ {
1800
+ "epoch": 6.33,
1801
+ "learning_rate": 8.583690987124463e-06,
1802
+ "loss": 0.0218,
1803
+ "step": 580
1804
+ },
1805
+ {
1806
+ "epoch": 6.35,
1807
+ "learning_rate": 8.44062947067239e-06,
1808
+ "loss": 0.0141,
1809
+ "step": 582
1810
+ },
1811
+ {
1812
+ "epoch": 6.37,
1813
+ "learning_rate": 8.297567954220316e-06,
1814
+ "loss": 0.0564,
1815
+ "step": 584
1816
+ },
1817
+ {
1818
+ "epoch": 6.4,
1819
+ "learning_rate": 8.154506437768241e-06,
1820
+ "loss": 0.0455,
1821
+ "step": 586
1822
+ },
1823
+ {
1824
+ "epoch": 6.42,
1825
+ "learning_rate": 8.011444921316166e-06,
1826
+ "loss": 0.0349,
1827
+ "step": 588
1828
+ },
1829
+ {
1830
+ "epoch": 6.44,
1831
+ "learning_rate": 7.868383404864092e-06,
1832
+ "loss": 0.0916,
1833
+ "step": 590
1834
+ },
1835
+ {
1836
+ "epoch": 6.46,
1837
+ "learning_rate": 7.725321888412019e-06,
1838
+ "loss": 0.1007,
1839
+ "step": 592
1840
+ },
1841
+ {
1842
+ "epoch": 6.48,
1843
+ "learning_rate": 7.582260371959943e-06,
1844
+ "loss": 0.0374,
1845
+ "step": 594
1846
+ },
1847
+ {
1848
+ "epoch": 6.5,
1849
+ "learning_rate": 7.439198855507869e-06,
1850
+ "loss": 0.0731,
1851
+ "step": 596
1852
+ },
1853
+ {
1854
+ "epoch": 6.53,
1855
+ "learning_rate": 7.296137339055794e-06,
1856
+ "loss": 0.0602,
1857
+ "step": 598
1858
+ },
1859
+ {
1860
+ "epoch": 6.55,
1861
+ "learning_rate": 7.153075822603721e-06,
1862
+ "loss": 0.0279,
1863
+ "step": 600
1864
+ },
1865
+ {
1866
+ "epoch": 6.55,
1867
+ "eval_loss": 0.05625469982624054,
1868
+ "eval_mean_accuracy": 0.9998249026290489,
1869
+ "eval_mean_iou": 0.9991182788520228,
1870
+ "eval_overall_accuracy": 0.9998249026290489,
1871
+ "eval_runtime": 52.3933,
1872
+ "eval_samples_per_second": 1.565,
1873
+ "eval_steps_per_second": 1.565,
1874
+ "step": 600
1875
+ },
1876
+ {
1877
+ "epoch": 6.57,
1878
+ "learning_rate": 7.010014306151645e-06,
1879
+ "loss": 0.1091,
1880
+ "step": 602
1881
+ },
1882
+ {
1883
+ "epoch": 6.59,
1884
+ "learning_rate": 6.8669527896995715e-06,
1885
+ "loss": 0.0158,
1886
+ "step": 604
1887
+ },
1888
+ {
1889
+ "epoch": 6.61,
1890
+ "learning_rate": 6.723891273247497e-06,
1891
+ "loss": 0.0856,
1892
+ "step": 606
1893
+ },
1894
+ {
1895
+ "epoch": 6.64,
1896
+ "learning_rate": 6.580829756795423e-06,
1897
+ "loss": 0.0378,
1898
+ "step": 608
1899
+ },
1900
+ {
1901
+ "epoch": 6.66,
1902
+ "learning_rate": 6.437768240343348e-06,
1903
+ "loss": 0.0704,
1904
+ "step": 610
1905
+ },
1906
+ {
1907
+ "epoch": 6.68,
1908
+ "learning_rate": 6.2947067238912735e-06,
1909
+ "loss": 0.1118,
1910
+ "step": 612
1911
+ },
1912
+ {
1913
+ "epoch": 6.7,
1914
+ "learning_rate": 6.151645207439199e-06,
1915
+ "loss": 0.053,
1916
+ "step": 614
1917
+ },
1918
+ {
1919
+ "epoch": 6.72,
1920
+ "learning_rate": 6.008583690987125e-06,
1921
+ "loss": 0.0052,
1922
+ "step": 616
1923
+ },
1924
+ {
1925
+ "epoch": 6.74,
1926
+ "learning_rate": 5.8655221745350506e-06,
1927
+ "loss": 0.0387,
1928
+ "step": 618
1929
+ },
1930
+ {
1931
+ "epoch": 6.77,
1932
+ "learning_rate": 5.722460658082976e-06,
1933
+ "loss": 0.0219,
1934
+ "step": 620
1935
+ },
1936
+ {
1937
+ "epoch": 6.79,
1938
+ "learning_rate": 5.579399141630902e-06,
1939
+ "loss": 0.0183,
1940
+ "step": 622
1941
+ },
1942
+ {
1943
+ "epoch": 6.81,
1944
+ "learning_rate": 5.436337625178827e-06,
1945
+ "loss": 0.0623,
1946
+ "step": 624
1947
+ },
1948
+ {
1949
+ "epoch": 6.83,
1950
+ "learning_rate": 5.293276108726753e-06,
1951
+ "loss": 0.0373,
1952
+ "step": 626
1953
+ },
1954
+ {
1955
+ "epoch": 6.85,
1956
+ "learning_rate": 5.150214592274678e-06,
1957
+ "loss": 0.0272,
1958
+ "step": 628
1959
+ },
1960
+ {
1961
+ "epoch": 6.88,
1962
+ "learning_rate": 5.007153075822604e-06,
1963
+ "loss": 0.0762,
1964
+ "step": 630
1965
+ },
1966
+ {
1967
+ "epoch": 6.9,
1968
+ "learning_rate": 4.86409155937053e-06,
1969
+ "loss": 0.0517,
1970
+ "step": 632
1971
+ },
1972
+ {
1973
+ "epoch": 6.92,
1974
+ "learning_rate": 4.721030042918455e-06,
1975
+ "loss": 0.0159,
1976
+ "step": 634
1977
+ },
1978
+ {
1979
+ "epoch": 6.94,
1980
+ "learning_rate": 4.577968526466381e-06,
1981
+ "loss": 0.0534,
1982
+ "step": 636
1983
+ },
1984
+ {
1985
+ "epoch": 6.96,
1986
+ "learning_rate": 4.434907010014307e-06,
1987
+ "loss": 0.0619,
1988
+ "step": 638
1989
+ },
1990
+ {
1991
+ "epoch": 6.98,
1992
+ "learning_rate": 4.2918454935622316e-06,
1993
+ "loss": 0.0217,
1994
+ "step": 640
1995
+ },
1996
+ {
1997
+ "epoch": 7.01,
1998
+ "learning_rate": 4.148783977110158e-06,
1999
+ "loss": 0.0486,
2000
+ "step": 642
2001
+ },
2002
+ {
2003
+ "epoch": 7.03,
2004
+ "learning_rate": 4.005722460658083e-06,
2005
+ "loss": 0.0338,
2006
+ "step": 644
2007
+ },
2008
+ {
2009
+ "epoch": 7.05,
2010
+ "learning_rate": 3.8626609442060095e-06,
2011
+ "loss": 0.0934,
2012
+ "step": 646
2013
+ },
2014
+ {
2015
+ "epoch": 7.07,
2016
+ "learning_rate": 3.7195994277539344e-06,
2017
+ "loss": 0.0401,
2018
+ "step": 648
2019
+ },
2020
+ {
2021
+ "epoch": 7.09,
2022
+ "learning_rate": 3.5765379113018605e-06,
2023
+ "loss": 0.0558,
2024
+ "step": 650
2025
+ },
2026
+ {
2027
+ "epoch": 7.12,
2028
+ "learning_rate": 3.4334763948497858e-06,
2029
+ "loss": 0.0346,
2030
+ "step": 652
2031
+ },
2032
+ {
2033
+ "epoch": 7.14,
2034
+ "learning_rate": 3.2904148783977115e-06,
2035
+ "loss": 0.0478,
2036
+ "step": 654
2037
+ },
2038
+ {
2039
+ "epoch": 7.16,
2040
+ "learning_rate": 3.1473533619456367e-06,
2041
+ "loss": 0.0159,
2042
+ "step": 656
2043
+ },
2044
+ {
2045
+ "epoch": 7.18,
2046
+ "learning_rate": 3.0042918454935624e-06,
2047
+ "loss": 0.0556,
2048
+ "step": 658
2049
+ },
2050
+ {
2051
+ "epoch": 7.2,
2052
+ "learning_rate": 2.861230329041488e-06,
2053
+ "loss": 0.021,
2054
+ "step": 660
2055
+ },
2056
+ {
2057
+ "epoch": 7.23,
2058
+ "learning_rate": 2.7181688125894134e-06,
2059
+ "loss": 0.0278,
2060
+ "step": 662
2061
+ },
2062
+ {
2063
+ "epoch": 7.25,
2064
+ "learning_rate": 2.575107296137339e-06,
2065
+ "loss": 0.0157,
2066
+ "step": 664
2067
+ },
2068
+ {
2069
+ "epoch": 7.27,
2070
+ "learning_rate": 2.432045779685265e-06,
2071
+ "loss": 0.0176,
2072
+ "step": 666
2073
+ },
2074
+ {
2075
+ "epoch": 7.29,
2076
+ "learning_rate": 2.2889842632331905e-06,
2077
+ "loss": 0.0475,
2078
+ "step": 668
2079
+ },
2080
+ {
2081
+ "epoch": 7.31,
2082
+ "learning_rate": 2.1459227467811158e-06,
2083
+ "loss": 0.0505,
2084
+ "step": 670
2085
+ },
2086
+ {
2087
+ "epoch": 7.33,
2088
+ "learning_rate": 2.0028612303290415e-06,
2089
+ "loss": 0.0207,
2090
+ "step": 672
2091
+ },
2092
+ {
2093
+ "epoch": 7.36,
2094
+ "learning_rate": 1.8597997138769672e-06,
2095
+ "loss": 0.0373,
2096
+ "step": 674
2097
+ },
2098
+ {
2099
+ "epoch": 7.38,
2100
+ "learning_rate": 1.7167381974248929e-06,
2101
+ "loss": 0.0218,
2102
+ "step": 676
2103
+ },
2104
+ {
2105
+ "epoch": 7.4,
2106
+ "learning_rate": 1.5736766809728184e-06,
2107
+ "loss": 0.0752,
2108
+ "step": 678
2109
+ },
2110
+ {
2111
+ "epoch": 7.42,
2112
+ "learning_rate": 1.430615164520744e-06,
2113
+ "loss": 0.0686,
2114
+ "step": 680
2115
+ },
2116
+ {
2117
+ "epoch": 7.44,
2118
+ "learning_rate": 1.2875536480686696e-06,
2119
+ "loss": 0.0678,
2120
+ "step": 682
2121
+ },
2122
+ {
2123
+ "epoch": 7.47,
2124
+ "learning_rate": 1.1444921316165953e-06,
2125
+ "loss": 0.0462,
2126
+ "step": 684
2127
+ },
2128
+ {
2129
+ "epoch": 7.49,
2130
+ "learning_rate": 1.0014306151645207e-06,
2131
+ "loss": 0.0546,
2132
+ "step": 686
2133
+ },
2134
+ {
2135
+ "epoch": 7.51,
2136
+ "learning_rate": 8.583690987124464e-07,
2137
+ "loss": 0.0648,
2138
+ "step": 688
2139
+ },
2140
+ {
2141
+ "epoch": 7.53,
2142
+ "learning_rate": 7.15307582260372e-07,
2143
+ "loss": 0.0229,
2144
+ "step": 690
2145
+ },
2146
+ {
2147
+ "epoch": 7.55,
2148
+ "learning_rate": 5.722460658082976e-07,
2149
+ "loss": 0.0191,
2150
+ "step": 692
2151
+ },
2152
+ {
2153
+ "epoch": 7.57,
2154
+ "learning_rate": 4.291845493562232e-07,
2155
+ "loss": 0.0282,
2156
+ "step": 694
2157
+ },
2158
+ {
2159
+ "epoch": 7.6,
2160
+ "learning_rate": 2.861230329041488e-07,
2161
+ "loss": 0.0177,
2162
+ "step": 696
2163
+ },
2164
+ {
2165
+ "epoch": 7.62,
2166
+ "learning_rate": 1.430615164520744e-07,
2167
+ "loss": 0.0785,
2168
+ "step": 698
2169
+ },
2170
+ {
2171
+ "epoch": 7.64,
2172
+ "learning_rate": 0.0,
2173
+ "loss": 0.023,
2174
+ "step": 700
2175
+ },
2176
+ {
2177
+ "epoch": 7.64,
2178
+ "eval_loss": 0.05236198380589485,
2179
+ "eval_mean_accuracy": 0.999793267854512,
2180
+ "eval_mean_iou": 0.9993052591243059,
2181
+ "eval_overall_accuracy": 0.999793267854512,
2182
+ "eval_runtime": 51.9076,
2183
+ "eval_samples_per_second": 1.58,
2184
+ "eval_steps_per_second": 1.58,
2185
+ "step": 700
2186
+ },
2187
+ {
2188
+ "epoch": 7.64,
2189
+ "step": 700,
2190
+ "total_flos": 6418217369659392.0,
2191
+ "train_loss": 0.17318119727208145,
2192
+ "train_runtime": 2340.6865,
2193
+ "train_samples_per_second": 2.392,
2194
+ "train_steps_per_second": 0.299
2195
+ }
2196
+ ],
2197
+ "max_steps": 700,
2198
+ "num_train_epochs": 8,
2199
+ "total_flos": 6418217369659392.0,
2200
+ "trial_name": null,
2201
+ "trial_params": null
2202
+ }
training.json ADDED
@@ -0,0 +1,31 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "dataset_name": "/workspaces/ai-butlerhat/ai-butlerhat-projects/default/pretraining_dataset/",
3
+ "max_seq_length": 1024,
4
+ "image_size": 224,
5
+ "max_seq_length_decoder": 100,
6
+ "label_names": [
7
+ "labels"
8
+ ],
9
+ "do_train": true,
10
+ "do_eval": true,
11
+ "do_predict": false,
12
+ "model_name_or_path": "/workspaces/ai-butlerhat/model/ciclozero",
13
+ "model_type": "AlfredUnimodel",
14
+ "output_dir": "/workspaces/ai-butlerhat/ai-butlerhat-projects/default/trained",
15
+ "gradient_accumulation_steps": 8,
16
+ "dataloader_num_workers": 4,
17
+ "overwrite_output_dir": true,
18
+ "per_device_train_batch_size": 1,
19
+ "per_device_eval_batch_size": 1,
20
+ "learning_rate": 5e-05,
21
+ "warmup_ratio": 0.001,
22
+ "weight_decay": 0.001,
23
+ "report_to": "wandb",
24
+ "max_steps": 700,
25
+ "save_steps": 600,
26
+ "logging_steps": 2,
27
+ "evaluation_strategy": "steps",
28
+ "eval_steps": 100,
29
+ "samples_to_log_per_eval": 10,
30
+ "samples_to_log_per_epoch": 10
31
+ }
training_args.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:f0735e0c3b71e6b2cca341518d9a09cc3f2c263f4b2a07c20cd99e13d855d7e9
3
+ size 4536