Mizuiro-sakura commited on
Commit
b4218cf
1 Parent(s): e196f03

Upload 13 files

Browse files
all_results.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "epoch": 3.0,
3
+ "eval_accuracy": 0.8650580644607544,
4
+ "eval_loss": 0.5917113423347473,
5
+ "eval_runtime": 12.8425,
6
+ "eval_samples": 1119,
7
+ "eval_samples_per_second": 87.132,
8
+ "eval_steps_per_second": 10.901,
9
+ "train_loss": 0.3305379035488871,
10
+ "train_runtime": 996.8011,
11
+ "train_samples": 8939,
12
+ "train_samples_per_second": 26.903,
13
+ "train_steps_per_second": 2.242
14
+ }
config.json ADDED
@@ -0,0 +1,38 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "deberta-v2-base-japanese",
3
+ "architectures": [
4
+ "DebertaV2ForMultipleChoice"
5
+ ],
6
+ "attention_head_size": 64,
7
+ "attention_probs_dropout_prob": 0.1,
8
+ "conv_act": "gelu",
9
+ "conv_kernel_size": 3,
10
+ "hidden_act": "gelu",
11
+ "hidden_dropout_prob": 0.1,
12
+ "hidden_size": 768,
13
+ "initializer_range": 0.02,
14
+ "intermediate_size": 3072,
15
+ "layer_norm_eps": 1e-07,
16
+ "max_position_embeddings": 512,
17
+ "max_relative_positions": -1,
18
+ "model_type": "deberta-v2",
19
+ "norm_rel_ebd": "layer_norm",
20
+ "num_attention_heads": 12,
21
+ "num_hidden_layers": 12,
22
+ "pad_token_id": 0,
23
+ "pooler_dropout": 0,
24
+ "pooler_hidden_act": "gelu",
25
+ "pooler_hidden_size": 768,
26
+ "pos_att_type": [
27
+ "p2c",
28
+ "c2p"
29
+ ],
30
+ "position_biased_input": false,
31
+ "position_buckets": 256,
32
+ "relative_attention": true,
33
+ "share_att_key": true,
34
+ "torch_dtype": "float32",
35
+ "transformers_version": "4.26.0",
36
+ "type_vocab_size": 0,
37
+ "vocab_size": 32000
38
+ }
eval_results.json ADDED
@@ -0,0 +1,9 @@
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "epoch": 3.0,
3
+ "eval_accuracy": 0.8650580644607544,
4
+ "eval_loss": 0.5917113423347473,
5
+ "eval_runtime": 12.8425,
6
+ "eval_samples": 1119,
7
+ "eval_samples_per_second": 87.132,
8
+ "eval_steps_per_second": 10.901
9
+ }
predict_results_valid.txt ADDED
@@ -0,0 +1,1120 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ index prediction
2
+ 0 2
3
+ 1 2
4
+ 2 0
5
+ 3 0
6
+ 4 0
7
+ 5 4
8
+ 6 4
9
+ 7 0
10
+ 8 2
11
+ 9 4
12
+ 10 4
13
+ 11 0
14
+ 12 0
15
+ 13 0
16
+ 14 4
17
+ 15 2
18
+ 16 0
19
+ 17 0
20
+ 18 1
21
+ 19 2
22
+ 20 2
23
+ 21 4
24
+ 22 0
25
+ 23 4
26
+ 24 3
27
+ 25 0
28
+ 26 1
29
+ 27 3
30
+ 28 3
31
+ 29 3
32
+ 30 4
33
+ 31 0
34
+ 32 3
35
+ 33 2
36
+ 34 0
37
+ 35 3
38
+ 36 3
39
+ 37 1
40
+ 38 0
41
+ 39 2
42
+ 40 4
43
+ 41 0
44
+ 42 0
45
+ 43 1
46
+ 44 3
47
+ 45 0
48
+ 46 4
49
+ 47 1
50
+ 48 0
51
+ 49 3
52
+ 50 0
53
+ 51 0
54
+ 52 2
55
+ 53 3
56
+ 54 2
57
+ 55 4
58
+ 56 4
59
+ 57 1
60
+ 58 1
61
+ 59 1
62
+ 60 0
63
+ 61 0
64
+ 62 3
65
+ 63 1
66
+ 64 0
67
+ 65 1
68
+ 66 4
69
+ 67 0
70
+ 68 3
71
+ 69 2
72
+ 70 1
73
+ 71 2
74
+ 72 1
75
+ 73 4
76
+ 74 1
77
+ 75 3
78
+ 76 2
79
+ 77 1
80
+ 78 2
81
+ 79 2
82
+ 80 4
83
+ 81 2
84
+ 82 3
85
+ 83 0
86
+ 84 2
87
+ 85 2
88
+ 86 0
89
+ 87 3
90
+ 88 1
91
+ 89 3
92
+ 90 1
93
+ 91 0
94
+ 92 4
95
+ 93 3
96
+ 94 3
97
+ 95 4
98
+ 96 4
99
+ 97 2
100
+ 98 0
101
+ 99 1
102
+ 100 1
103
+ 101 2
104
+ 102 3
105
+ 103 0
106
+ 104 3
107
+ 105 2
108
+ 106 1
109
+ 107 4
110
+ 108 0
111
+ 109 3
112
+ 110 3
113
+ 111 3
114
+ 112 3
115
+ 113 0
116
+ 114 2
117
+ 115 0
118
+ 116 0
119
+ 117 4
120
+ 118 0
121
+ 119 2
122
+ 120 2
123
+ 121 2
124
+ 122 2
125
+ 123 1
126
+ 124 3
127
+ 125 0
128
+ 126 4
129
+ 127 2
130
+ 128 3
131
+ 129 3
132
+ 130 1
133
+ 131 1
134
+ 132 4
135
+ 133 1
136
+ 134 1
137
+ 135 0
138
+ 136 2
139
+ 137 1
140
+ 138 3
141
+ 139 1
142
+ 140 3
143
+ 141 4
144
+ 142 3
145
+ 143 4
146
+ 144 2
147
+ 145 1
148
+ 146 1
149
+ 147 2
150
+ 148 3
151
+ 149 0
152
+ 150 4
153
+ 151 1
154
+ 152 3
155
+ 153 0
156
+ 154 2
157
+ 155 4
158
+ 156 3
159
+ 157 1
160
+ 158 4
161
+ 159 3
162
+ 160 0
163
+ 161 3
164
+ 162 4
165
+ 163 2
166
+ 164 2
167
+ 165 2
168
+ 166 1
169
+ 167 0
170
+ 168 3
171
+ 169 0
172
+ 170 0
173
+ 171 0
174
+ 172 2
175
+ 173 3
176
+ 174 3
177
+ 175 3
178
+ 176 0
179
+ 177 1
180
+ 178 0
181
+ 179 0
182
+ 180 0
183
+ 181 2
184
+ 182 2
185
+ 183 0
186
+ 184 2
187
+ 185 3
188
+ 186 4
189
+ 187 4
190
+ 188 1
191
+ 189 2
192
+ 190 4
193
+ 191 0
194
+ 192 3
195
+ 193 3
196
+ 194 1
197
+ 195 3
198
+ 196 0
199
+ 197 1
200
+ 198 0
201
+ 199 4
202
+ 200 2
203
+ 201 3
204
+ 202 0
205
+ 203 1
206
+ 204 1
207
+ 205 2
208
+ 206 4
209
+ 207 3
210
+ 208 1
211
+ 209 2
212
+ 210 3
213
+ 211 3
214
+ 212 2
215
+ 213 3
216
+ 214 2
217
+ 215 1
218
+ 216 1
219
+ 217 2
220
+ 218 2
221
+ 219 4
222
+ 220 4
223
+ 221 3
224
+ 222 1
225
+ 223 2
226
+ 224 3
227
+ 225 1
228
+ 226 4
229
+ 227 2
230
+ 228 4
231
+ 229 2
232
+ 230 0
233
+ 231 2
234
+ 232 0
235
+ 233 2
236
+ 234 4
237
+ 235 1
238
+ 236 0
239
+ 237 0
240
+ 238 0
241
+ 239 4
242
+ 240 4
243
+ 241 1
244
+ 242 3
245
+ 243 3
246
+ 244 1
247
+ 245 0
248
+ 246 4
249
+ 247 3
250
+ 248 2
251
+ 249 3
252
+ 250 2
253
+ 251 0
254
+ 252 4
255
+ 253 0
256
+ 254 2
257
+ 255 3
258
+ 256 3
259
+ 257 2
260
+ 258 2
261
+ 259 1
262
+ 260 2
263
+ 261 2
264
+ 262 2
265
+ 263 4
266
+ 264 3
267
+ 265 3
268
+ 266 3
269
+ 267 3
270
+ 268 0
271
+ 269 2
272
+ 270 1
273
+ 271 0
274
+ 272 0
275
+ 273 3
276
+ 274 3
277
+ 275 3
278
+ 276 4
279
+ 277 4
280
+ 278 0
281
+ 279 0
282
+ 280 0
283
+ 281 3
284
+ 282 4
285
+ 283 0
286
+ 284 0
287
+ 285 0
288
+ 286 0
289
+ 287 2
290
+ 288 1
291
+ 289 1
292
+ 290 2
293
+ 291 3
294
+ 292 4
295
+ 293 4
296
+ 294 4
297
+ 295 0
298
+ 296 0
299
+ 297 1
300
+ 298 0
301
+ 299 2
302
+ 300 4
303
+ 301 0
304
+ 302 1
305
+ 303 1
306
+ 304 3
307
+ 305 0
308
+ 306 0
309
+ 307 4
310
+ 308 2
311
+ 309 3
312
+ 310 2
313
+ 311 4
314
+ 312 4
315
+ 313 3
316
+ 314 4
317
+ 315 4
318
+ 316 1
319
+ 317 0
320
+ 318 2
321
+ 319 2
322
+ 320 1
323
+ 321 2
324
+ 322 2
325
+ 323 2
326
+ 324 1
327
+ 325 3
328
+ 326 3
329
+ 327 4
330
+ 328 0
331
+ 329 2
332
+ 330 2
333
+ 331 1
334
+ 332 1
335
+ 333 0
336
+ 334 2
337
+ 335 4
338
+ 336 0
339
+ 337 2
340
+ 338 1
341
+ 339 4
342
+ 340 1
343
+ 341 1
344
+ 342 2
345
+ 343 0
346
+ 344 1
347
+ 345 3
348
+ 346 0
349
+ 347 3
350
+ 348 2
351
+ 349 4
352
+ 350 1
353
+ 351 4
354
+ 352 4
355
+ 353 1
356
+ 354 0
357
+ 355 4
358
+ 356 3
359
+ 357 1
360
+ 358 4
361
+ 359 1
362
+ 360 2
363
+ 361 3
364
+ 362 3
365
+ 363 2
366
+ 364 1
367
+ 365 1
368
+ 366 4
369
+ 367 3
370
+ 368 3
371
+ 369 0
372
+ 370 3
373
+ 371 4
374
+ 372 0
375
+ 373 0
376
+ 374 0
377
+ 375 3
378
+ 376 0
379
+ 377 2
380
+ 378 4
381
+ 379 3
382
+ 380 2
383
+ 381 1
384
+ 382 1
385
+ 383 1
386
+ 384 2
387
+ 385 0
388
+ 386 4
389
+ 387 1
390
+ 388 0
391
+ 389 0
392
+ 390 2
393
+ 391 4
394
+ 392 3
395
+ 393 1
396
+ 394 0
397
+ 395 2
398
+ 396 1
399
+ 397 2
400
+ 398 1
401
+ 399 4
402
+ 400 3
403
+ 401 2
404
+ 402 1
405
+ 403 4
406
+ 404 4
407
+ 405 0
408
+ 406 0
409
+ 407 1
410
+ 408 2
411
+ 409 3
412
+ 410 1
413
+ 411 3
414
+ 412 3
415
+ 413 4
416
+ 414 0
417
+ 415 1
418
+ 416 2
419
+ 417 2
420
+ 418 4
421
+ 419 2
422
+ 420 3
423
+ 421 3
424
+ 422 0
425
+ 423 4
426
+ 424 2
427
+ 425 1
428
+ 426 2
429
+ 427 1
430
+ 428 3
431
+ 429 4
432
+ 430 1
433
+ 431 4
434
+ 432 2
435
+ 433 3
436
+ 434 2
437
+ 435 0
438
+ 436 3
439
+ 437 2
440
+ 438 3
441
+ 439 4
442
+ 440 4
443
+ 441 1
444
+ 442 3
445
+ 443 3
446
+ 444 4
447
+ 445 0
448
+ 446 4
449
+ 447 0
450
+ 448 0
451
+ 449 1
452
+ 450 1
453
+ 451 0
454
+ 452 3
455
+ 453 4
456
+ 454 2
457
+ 455 3
458
+ 456 0
459
+ 457 3
460
+ 458 4
461
+ 459 3
462
+ 460 2
463
+ 461 3
464
+ 462 2
465
+ 463 3
466
+ 464 0
467
+ 465 2
468
+ 466 3
469
+ 467 1
470
+ 468 1
471
+ 469 1
472
+ 470 0
473
+ 471 3
474
+ 472 4
475
+ 473 0
476
+ 474 4
477
+ 475 4
478
+ 476 3
479
+ 477 4
480
+ 478 1
481
+ 479 2
482
+ 480 2
483
+ 481 0
484
+ 482 4
485
+ 483 1
486
+ 484 4
487
+ 485 2
488
+ 486 1
489
+ 487 3
490
+ 488 1
491
+ 489 2
492
+ 490 1
493
+ 491 2
494
+ 492 2
495
+ 493 4
496
+ 494 3
497
+ 495 3
498
+ 496 3
499
+ 497 4
500
+ 498 4
501
+ 499 0
502
+ 500 1
503
+ 501 1
504
+ 502 2
505
+ 503 4
506
+ 504 0
507
+ 505 1
508
+ 506 0
509
+ 507 3
510
+ 508 3
511
+ 509 0
512
+ 510 4
513
+ 511 0
514
+ 512 0
515
+ 513 3
516
+ 514 0
517
+ 515 2
518
+ 516 4
519
+ 517 1
520
+ 518 2
521
+ 519 2
522
+ 520 1
523
+ 521 1
524
+ 522 1
525
+ 523 1
526
+ 524 3
527
+ 525 0
528
+ 526 3
529
+ 527 0
530
+ 528 3
531
+ 529 4
532
+ 530 4
533
+ 531 4
534
+ 532 3
535
+ 533 0
536
+ 534 1
537
+ 535 4
538
+ 536 0
539
+ 537 2
540
+ 538 1
541
+ 539 1
542
+ 540 2
543
+ 541 2
544
+ 542 4
545
+ 543 0
546
+ 544 4
547
+ 545 4
548
+ 546 3
549
+ 547 2
550
+ 548 4
551
+ 549 0
552
+ 550 0
553
+ 551 0
554
+ 552 0
555
+ 553 2
556
+ 554 3
557
+ 555 2
558
+ 556 1
559
+ 557 2
560
+ 558 2
561
+ 559 3
562
+ 560 0
563
+ 561 2
564
+ 562 1
565
+ 563 2
566
+ 564 2
567
+ 565 4
568
+ 566 4
569
+ 567 1
570
+ 568 1
571
+ 569 2
572
+ 570 1
573
+ 571 1
574
+ 572 2
575
+ 573 3
576
+ 574 3
577
+ 575 1
578
+ 576 0
579
+ 577 4
580
+ 578 3
581
+ 579 3
582
+ 580 2
583
+ 581 2
584
+ 582 2
585
+ 583 4
586
+ 584 4
587
+ 585 0
588
+ 586 3
589
+ 587 1
590
+ 588 1
591
+ 589 0
592
+ 590 1
593
+ 591 4
594
+ 592 2
595
+ 593 4
596
+ 594 1
597
+ 595 4
598
+ 596 4
599
+ 597 4
600
+ 598 1
601
+ 599 3
602
+ 600 3
603
+ 601 0
604
+ 602 2
605
+ 603 3
606
+ 604 4
607
+ 605 3
608
+ 606 3
609
+ 607 2
610
+ 608 2
611
+ 609 1
612
+ 610 4
613
+ 611 0
614
+ 612 0
615
+ 613 0
616
+ 614 0
617
+ 615 2
618
+ 616 1
619
+ 617 4
620
+ 618 2
621
+ 619 0
622
+ 620 2
623
+ 621 2
624
+ 622 1
625
+ 623 2
626
+ 624 0
627
+ 625 1
628
+ 626 2
629
+ 627 0
630
+ 628 1
631
+ 629 0
632
+ 630 2
633
+ 631 3
634
+ 632 4
635
+ 633 0
636
+ 634 4
637
+ 635 1
638
+ 636 2
639
+ 637 0
640
+ 638 3
641
+ 639 1
642
+ 640 1
643
+ 641 2
644
+ 642 0
645
+ 643 3
646
+ 644 3
647
+ 645 4
648
+ 646 4
649
+ 647 2
650
+ 648 2
651
+ 649 2
652
+ 650 1
653
+ 651 3
654
+ 652 0
655
+ 653 4
656
+ 654 1
657
+ 655 3
658
+ 656 3
659
+ 657 1
660
+ 658 3
661
+ 659 4
662
+ 660 1
663
+ 661 0
664
+ 662 1
665
+ 663 2
666
+ 664 4
667
+ 665 1
668
+ 666 1
669
+ 667 4
670
+ 668 0
671
+ 669 0
672
+ 670 4
673
+ 671 1
674
+ 672 0
675
+ 673 2
676
+ 674 1
677
+ 675 1
678
+ 676 2
679
+ 677 3
680
+ 678 3
681
+ 679 4
682
+ 680 2
683
+ 681 3
684
+ 682 0
685
+ 683 0
686
+ 684 3
687
+ 685 0
688
+ 686 3
689
+ 687 3
690
+ 688 2
691
+ 689 2
692
+ 690 1
693
+ 691 2
694
+ 692 4
695
+ 693 0
696
+ 694 4
697
+ 695 1
698
+ 696 4
699
+ 697 4
700
+ 698 3
701
+ 699 4
702
+ 700 2
703
+ 701 3
704
+ 702 0
705
+ 703 0
706
+ 704 4
707
+ 705 3
708
+ 706 2
709
+ 707 3
710
+ 708 3
711
+ 709 4
712
+ 710 1
713
+ 711 3
714
+ 712 2
715
+ 713 1
716
+ 714 1
717
+ 715 2
718
+ 716 1
719
+ 717 2
720
+ 718 1
721
+ 719 0
722
+ 720 0
723
+ 721 1
724
+ 722 4
725
+ 723 3
726
+ 724 1
727
+ 725 4
728
+ 726 4
729
+ 727 2
730
+ 728 0
731
+ 729 3
732
+ 730 1
733
+ 731 3
734
+ 732 1
735
+ 733 4
736
+ 734 0
737
+ 735 1
738
+ 736 3
739
+ 737 2
740
+ 738 0
741
+ 739 2
742
+ 740 1
743
+ 741 1
744
+ 742 1
745
+ 743 3
746
+ 744 2
747
+ 745 2
748
+ 746 1
749
+ 747 3
750
+ 748 4
751
+ 749 0
752
+ 750 4
753
+ 751 1
754
+ 752 2
755
+ 753 4
756
+ 754 4
757
+ 755 4
758
+ 756 1
759
+ 757 0
760
+ 758 4
761
+ 759 4
762
+ 760 2
763
+ 761 4
764
+ 762 0
765
+ 763 4
766
+ 764 4
767
+ 765 0
768
+ 766 4
769
+ 767 0
770
+ 768 1
771
+ 769 1
772
+ 770 0
773
+ 771 3
774
+ 772 1
775
+ 773 0
776
+ 774 0
777
+ 775 2
778
+ 776 4
779
+ 777 0
780
+ 778 1
781
+ 779 3
782
+ 780 3
783
+ 781 1
784
+ 782 4
785
+ 783 3
786
+ 784 1
787
+ 785 4
788
+ 786 0
789
+ 787 3
790
+ 788 1
791
+ 789 2
792
+ 790 1
793
+ 791 0
794
+ 792 0
795
+ 793 2
796
+ 794 4
797
+ 795 1
798
+ 796 4
799
+ 797 1
800
+ 798 1
801
+ 799 3
802
+ 800 1
803
+ 801 4
804
+ 802 0
805
+ 803 1
806
+ 804 3
807
+ 805 4
808
+ 806 3
809
+ 807 0
810
+ 808 2
811
+ 809 1
812
+ 810 3
813
+ 811 2
814
+ 812 3
815
+ 813 3
816
+ 814 3
817
+ 815 1
818
+ 816 3
819
+ 817 1
820
+ 818 0
821
+ 819 3
822
+ 820 0
823
+ 821 1
824
+ 822 3
825
+ 823 2
826
+ 824 0
827
+ 825 0
828
+ 826 2
829
+ 827 2
830
+ 828 4
831
+ 829 1
832
+ 830 4
833
+ 831 3
834
+ 832 1
835
+ 833 1
836
+ 834 4
837
+ 835 3
838
+ 836 4
839
+ 837 3
840
+ 838 1
841
+ 839 3
842
+ 840 3
843
+ 841 1
844
+ 842 4
845
+ 843 3
846
+ 844 1
847
+ 845 0
848
+ 846 2
849
+ 847 1
850
+ 848 0
851
+ 849 1
852
+ 850 3
853
+ 851 2
854
+ 852 4
855
+ 853 2
856
+ 854 1
857
+ 855 4
858
+ 856 2
859
+ 857 4
860
+ 858 0
861
+ 859 0
862
+ 860 3
863
+ 861 1
864
+ 862 4
865
+ 863 2
866
+ 864 1
867
+ 865 4
868
+ 866 1
869
+ 867 1
870
+ 868 0
871
+ 869 4
872
+ 870 4
873
+ 871 3
874
+ 872 1
875
+ 873 3
876
+ 874 0
877
+ 875 4
878
+ 876 1
879
+ 877 1
880
+ 878 1
881
+ 879 0
882
+ 880 4
883
+ 881 2
884
+ 882 2
885
+ 883 2
886
+ 884 4
887
+ 885 1
888
+ 886 4
889
+ 887 1
890
+ 888 2
891
+ 889 2
892
+ 890 1
893
+ 891 4
894
+ 892 2
895
+ 893 1
896
+ 894 3
897
+ 895 4
898
+ 896 1
899
+ 897 0
900
+ 898 3
901
+ 899 2
902
+ 900 1
903
+ 901 0
904
+ 902 1
905
+ 903 3
906
+ 904 3
907
+ 905 0
908
+ 906 3
909
+ 907 0
910
+ 908 4
911
+ 909 4
912
+ 910 0
913
+ 911 1
914
+ 912 4
915
+ 913 2
916
+ 914 0
917
+ 915 2
918
+ 916 1
919
+ 917 0
920
+ 918 1
921
+ 919 4
922
+ 920 1
923
+ 921 4
924
+ 922 2
925
+ 923 3
926
+ 924 2
927
+ 925 3
928
+ 926 3
929
+ 927 4
930
+ 928 2
931
+ 929 2
932
+ 930 0
933
+ 931 0
934
+ 932 1
935
+ 933 4
936
+ 934 0
937
+ 935 0
938
+ 936 1
939
+ 937 0
940
+ 938 0
941
+ 939 4
942
+ 940 2
943
+ 941 3
944
+ 942 1
945
+ 943 3
946
+ 944 4
947
+ 945 3
948
+ 946 2
949
+ 947 1
950
+ 948 4
951
+ 949 3
952
+ 950 2
953
+ 951 3
954
+ 952 4
955
+ 953 1
956
+ 954 3
957
+ 955 3
958
+ 956 1
959
+ 957 2
960
+ 958 1
961
+ 959 0
962
+ 960 4
963
+ 961 0
964
+ 962 1
965
+ 963 4
966
+ 964 1
967
+ 965 3
968
+ 966 0
969
+ 967 4
970
+ 968 3
971
+ 969 4
972
+ 970 2
973
+ 971 4
974
+ 972 2
975
+ 973 4
976
+ 974 0
977
+ 975 1
978
+ 976 0
979
+ 977 4
980
+ 978 1
981
+ 979 1
982
+ 980 3
983
+ 981 3
984
+ 982 4
985
+ 983 0
986
+ 984 3
987
+ 985 3
988
+ 986 0
989
+ 987 1
990
+ 988 3
991
+ 989 0
992
+ 990 1
993
+ 991 3
994
+ 992 2
995
+ 993 3
996
+ 994 3
997
+ 995 3
998
+ 996 0
999
+ 997 4
1000
+ 998 2
1001
+ 999 4
1002
+ 1000 2
1003
+ 1001 1
1004
+ 1002 2
1005
+ 1003 0
1006
+ 1004 2
1007
+ 1005 3
1008
+ 1006 1
1009
+ 1007 1
1010
+ 1008 2
1011
+ 1009 4
1012
+ 1010 3
1013
+ 1011 4
1014
+ 1012 4
1015
+ 1013 0
1016
+ 1014 3
1017
+ 1015 0
1018
+ 1016 0
1019
+ 1017 0
1020
+ 1018 1
1021
+ 1019 0
1022
+ 1020 4
1023
+ 1021 2
1024
+ 1022 0
1025
+ 1023 3
1026
+ 1024 1
1027
+ 1025 1
1028
+ 1026 3
1029
+ 1027 0
1030
+ 1028 4
1031
+ 1029 3
1032
+ 1030 1
1033
+ 1031 3
1034
+ 1032 1
1035
+ 1033 4
1036
+ 1034 3
1037
+ 1035 4
1038
+ 1036 4
1039
+ 1037 0
1040
+ 1038 0
1041
+ 1039 3
1042
+ 1040 3
1043
+ 1041 0
1044
+ 1042 2
1045
+ 1043 2
1046
+ 1044 2
1047
+ 1045 2
1048
+ 1046 2
1049
+ 1047 2
1050
+ 1048 2
1051
+ 1049 0
1052
+ 1050 2
1053
+ 1051 4
1054
+ 1052 4
1055
+ 1053 1
1056
+ 1054 0
1057
+ 1055 2
1058
+ 1056 1
1059
+ 1057 2
1060
+ 1058 0
1061
+ 1059 1
1062
+ 1060 4
1063
+ 1061 2
1064
+ 1062 3
1065
+ 1063 3
1066
+ 1064 0
1067
+ 1065 4
1068
+ 1066 2
1069
+ 1067 3
1070
+ 1068 1
1071
+ 1069 2
1072
+ 1070 2
1073
+ 1071 2
1074
+ 1072 4
1075
+ 1073 0
1076
+ 1074 1
1077
+ 1075 2
1078
+ 1076 0
1079
+ 1077 3
1080
+ 1078 2
1081
+ 1079 4
1082
+ 1080 0
1083
+ 1081 1
1084
+ 1082 1
1085
+ 1083 2
1086
+ 1084 1
1087
+ 1085 3
1088
+ 1086 1
1089
+ 1087 1
1090
+ 1088 3
1091
+ 1089 1
1092
+ 1090 0
1093
+ 1091 4
1094
+ 1092 2
1095
+ 1093 1
1096
+ 1094 0
1097
+ 1095 0
1098
+ 1096 2
1099
+ 1097 0
1100
+ 1098 3
1101
+ 1099 2
1102
+ 1100 0
1103
+ 1101 1
1104
+ 1102 2
1105
+ 1103 2
1106
+ 1104 1
1107
+ 1105 4
1108
+ 1106 4
1109
+ 1107 2
1110
+ 1108 3
1111
+ 1109 4
1112
+ 1110 0
1113
+ 1111 1
1114
+ 1112 1
1115
+ 1113 2
1116
+ 1114 3
1117
+ 1115 3
1118
+ 1116 2
1119
+ 1117 1
1120
+ 1118 2
pytorch_model.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:05c600c56d5a92c2dd79a9c95971c92fad8b686e61e9a3b443485a5bf869dd40
3
+ size 449634953
special_tokens_map.json ADDED
@@ -0,0 +1,9 @@
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": "[CLS]",
3
+ "cls_token": "[CLS]",
4
+ "eos_token": "[SEP]",
5
+ "mask_token": "[MASK]",
6
+ "pad_token": "[PAD]",
7
+ "sep_token": "[SEP]",
8
+ "unk_token": "[UNK]"
9
+ }
spm.model ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:6c111c16e2e52366dcac46b886e40650bb843fe2938a65f5970271fc5697a127
3
+ size 805061
tokenizer.json ADDED
The diff for this file is too large to render. See raw diff
 
tokenizer.py ADDED
@@ -0,0 +1,26 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ #! /usr/bin/python3
2
+ from transformers import DebertaV2TokenizerFast
3
+ from transformers.models.bert_japanese.tokenization_bert_japanese import JumanppTokenizer
4
+ class JumanppPreTokenizer(JumanppTokenizer):
5
+ def jumanpp_split(self,i,normalized_string):
6
+ import textspan
7
+ t=str(normalized_string)
8
+ k=self.tokenize(t)
9
+ return [normalized_string[s:e] for c in textspan.get_original_spans(k,t) for s,e in c]
10
+ def pre_tokenize(self,pretok):
11
+ pretok.split(self.jumanpp_split)
12
+ class JumanppDebertaV2TokenizerFast(DebertaV2TokenizerFast):
13
+ def __init__(self,**kwargs):
14
+ from tokenizers.pre_tokenizers import PreTokenizer,Metaspace,Sequence
15
+ super().__init__(**kwargs)
16
+ self._tokenizer.pre_tokenizer=Sequence([PreTokenizer.custom(JumanppPreTokenizer()),Metaspace()])
17
+ def save_pretrained(self,save_directory,**kwargs):
18
+ import os
19
+ import shutil
20
+ from tokenizers.pre_tokenizers import PreTokenizer,Metaspace,Sequence
21
+ self._auto_map={"AutoTokenizer":[None,"tokenizer.JumanppDebertaV2TokenizerFast"]}
22
+ self._tokenizer.pre_tokenizer=Metaspace()
23
+ super().save_pretrained(save_directory,**kwargs)
24
+ self._tokenizer.pre_tokenizer=Sequence([PreTokenizer.custom(JumanppPreTokenizer()),Metaspace()])
25
+ shutil.copy(os.path.abspath(__file__),os.path.join(save_directory,"tokenizer.py"))
26
+
tokenizer_config.json ADDED
@@ -0,0 +1,23 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "auto_map": {
3
+ "AutoTokenizer": [
4
+ "tokenization_deberta_v2.DebertaV2Tokenizer",
5
+ "tokenizer.JumanppDebertaV2TokenizerFast"
6
+ ]
7
+ },
8
+ "bos_token": "[CLS]",
9
+ "cls_token": "[CLS]",
10
+ "do_lower_case": false,
11
+ "eos_token": "[SEP]",
12
+ "keep_accents": true,
13
+ "mask_token": "[MASK]",
14
+ "model_max_length": 1000000000000000019884624838656,
15
+ "name_or_path": "deberta-v2-base-japanese",
16
+ "pad_token": "[PAD]",
17
+ "sep_token": "[SEP]",
18
+ "sp_model_kwargs": {},
19
+ "special_tokens_map_file": null,
20
+ "split_by_punct": false,
21
+ "tokenizer_class": "JumanppDebertaV2Tokenizer",
22
+ "unk_token": "[UNK]"
23
+ }
train_results.json ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "epoch": 3.0,
3
+ "train_loss": 0.3305379035488871,
4
+ "train_runtime": 996.8011,
5
+ "train_samples": 8939,
6
+ "train_samples_per_second": 26.903,
7
+ "train_steps_per_second": 2.242
8
+ }
trainer_state.json ADDED
@@ -0,0 +1,76 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "best_metric": null,
3
+ "best_model_checkpoint": null,
4
+ "epoch": 3.0,
5
+ "global_step": 2235,
6
+ "is_hyper_param_search": false,
7
+ "is_local_process_zero": true,
8
+ "is_world_process_zero": true,
9
+ "log_history": [
10
+ {
11
+ "epoch": 0.67,
12
+ "learning_rate": 3.881431767337807e-05,
13
+ "loss": 0.699,
14
+ "step": 500
15
+ },
16
+ {
17
+ "epoch": 1.0,
18
+ "eval_accuracy": 0.8391420841217041,
19
+ "eval_loss": 0.4257535934448242,
20
+ "eval_runtime": 12.6758,
21
+ "eval_samples_per_second": 88.278,
22
+ "eval_steps_per_second": 11.045,
23
+ "step": 745
24
+ },
25
+ {
26
+ "epoch": 1.34,
27
+ "learning_rate": 2.7628635346756153e-05,
28
+ "loss": 0.4032,
29
+ "step": 1000
30
+ },
31
+ {
32
+ "epoch": 2.0,
33
+ "eval_accuracy": 0.8570151925086975,
34
+ "eval_loss": 0.49252861738204956,
35
+ "eval_runtime": 12.6658,
36
+ "eval_samples_per_second": 88.348,
37
+ "eval_steps_per_second": 11.053,
38
+ "step": 1490
39
+ },
40
+ {
41
+ "epoch": 2.01,
42
+ "learning_rate": 1.644295302013423e-05,
43
+ "loss": 0.2427,
44
+ "step": 1500
45
+ },
46
+ {
47
+ "epoch": 2.68,
48
+ "learning_rate": 5.257270693512305e-06,
49
+ "loss": 0.0903,
50
+ "step": 2000
51
+ },
52
+ {
53
+ "epoch": 3.0,
54
+ "eval_accuracy": 0.8650580644607544,
55
+ "eval_loss": 0.5917113423347473,
56
+ "eval_runtime": 12.628,
57
+ "eval_samples_per_second": 88.613,
58
+ "eval_steps_per_second": 11.086,
59
+ "step": 2235
60
+ },
61
+ {
62
+ "epoch": 3.0,
63
+ "step": 2235,
64
+ "total_flos": 1862975629346310.0,
65
+ "train_loss": 0.3305379035488871,
66
+ "train_runtime": 996.8011,
67
+ "train_samples_per_second": 26.903,
68
+ "train_steps_per_second": 2.242
69
+ }
70
+ ],
71
+ "max_steps": 2235,
72
+ "num_train_epochs": 3,
73
+ "total_flos": 1862975629346310.0,
74
+ "trial_name": null,
75
+ "trial_params": null
76
+ }
training_args.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:f5d9c05feb618e069ccf9aa1d453dabdec6c6ee6e634d834c0bb1df9062d40c9
3
+ size 3579