nicolarici commited on
Commit
971cdbe
1 Parent(s): 193eb5e

Upload tokenizer

Browse files
Files changed (4) hide show
  1. added_tokens.json +124 -0
  2. special_tokens_map.json +7 -0
  3. tokenizer_config.json +16 -0
  4. vocab.txt +0 -0
added_tokens.json ADDED
@@ -0,0 +1,124 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "accertamento": 31119,
3
+ "accertata": 31192,
4
+ "accoglimento": 31153,
5
+ "ancorché": 31186,
6
+ "anzianità": 31142,
7
+ "assistenziale": 31217,
8
+ "att": 31180,
9
+ "avverso": 31122,
10
+ "cassata": 31213,
11
+ "cassazione": 31103,
12
+ "ccnl": 31112,
13
+ "censure": 31135,
14
+ "civ": 31104,
15
+ "compensate": 31219,
16
+ "compensi": 31118,
17
+ "conseguentemente": 31207,
18
+ "conservativa": 31151,
19
+ "contestato": 31165,
20
+ "contestazione": 31121,
21
+ "contrattazione": 31130,
22
+ "contributiva": 31145,
23
+ "contributivo": 31133,
24
+ "contribuzione": 31126,
25
+ "controricorrente": 31164,
26
+ "controricorso": 31115,
27
+ "conv": 31128,
28
+ "convincimento": 31203,
29
+ "correttezza": 31216,
30
+ "cpc": 31155,
31
+ "datoriale": 31160,
32
+ "datrice": 31172,
33
+ "declaratoria": 31182,
34
+ "decorrenza": 31158,
35
+ "dedotta": 31161,
36
+ "dedotto": 31174,
37
+ "deduce": 31120,
38
+ "deducendo": 31205,
39
+ "deduzione": 31187,
40
+ "denunciata": 31190,
41
+ "dettata": 31162,
42
+ "dilettantistica": 31123,
43
+ "dilettantistiche": 31109,
44
+ "dirigenziale": 31201,
45
+ "disciplinari": 31177,
46
+ "dpr": 31195,
47
+ "enpals": 31223,
48
+ "erronea": 31159,
49
+ "esborsi": 31152,
50
+ "estensore": 31150,
51
+ "federazioni": 31196,
52
+ "giudiziale": 31191,
53
+ "graduatorie": 31114,
54
+ "gravame": 31166,
55
+ "illegittimità": 31138,
56
+ "impugnazione": 31146,
57
+ "inail": 31222,
58
+ "inammissibile": 31108,
59
+ "inammissibili": 31212,
60
+ "inammissibilità": 31143,
61
+ "incidentale": 31113,
62
+ "indeterminato": 31129,
63
+ "individuazione": 31194,
64
+ "infondato": 31137,
65
+ "inps": 31221,
66
+ "inquadramento": 31181,
67
+ "intimato": 31167,
68
+ "invero": 31173,
69
+ "istruttori": 31127,
70
+ "istruttorie": 31202,
71
+ "lavoratrice": 31156,
72
+ "lgs": 31220,
73
+ "liquidate": 31154,
74
+ "maturata": 31211,
75
+ "mensilità": 31208,
76
+ "meramente": 31184,
77
+ "miur": 31210,
78
+ "nullità": 31111,
79
+ "oggettivo": 31215,
80
+ "omessa": 31149,
81
+ "omesso": 31125,
82
+ "pg": 31163,
83
+ "premesso": 31176,
84
+ "previdenziale": 31110,
85
+ "previdenziali": 31144,
86
+ "probatorio": 31170,
87
+ "proc": 31102,
88
+ "processuale": 31157,
89
+ "processuali": 31105,
90
+ "quater": 31136,
91
+ "ratio": 31179,
92
+ "ratione": 31189,
93
+ "reintegra": 31206,
94
+ "reintegrazione": 31178,
95
+ "rendita": 31171,
96
+ "resistito": 31139,
97
+ "revocazione": 31198,
98
+ "rg": 31117,
99
+ "richiamata": 31175,
100
+ "ricorrenza": 31197,
101
+ "riferita": 31218,
102
+ "rigetta": 31134,
103
+ "rigettato": 31124,
104
+ "rigetto": 31116,
105
+ "rilevando": 31214,
106
+ "rinvia": 31169,
107
+ "risarcitoria": 31183,
108
+ "risultanze": 31140,
109
+ "ritenersi": 31148,
110
+ "sez": 31147,
111
+ "sicché": 31141,
112
+ "soccombenza": 31132,
113
+ "soggettivo": 31185,
114
+ "spettante": 31200,
115
+ "statuizione": 31168,
116
+ "stipulati": 31204,
117
+ "stregua": 31193,
118
+ "sussistenza": 31106,
119
+ "sussunzione": 31199,
120
+ "temporis": 31188,
121
+ "tuir": 31131,
122
+ "unificato": 31107,
123
+ "vizi": 31209
124
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,7 @@
 
 
 
 
 
 
 
 
1
+ {
2
+ "cls_token": "[CLS]",
3
+ "mask_token": "[MASK]",
4
+ "pad_token": "[PAD]",
5
+ "sep_token": "[SEP]",
6
+ "unk_token": "[UNK]"
7
+ }
tokenizer_config.json ADDED
@@ -0,0 +1,16 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "cls_token": "[CLS]",
3
+ "do_basic_tokenize": true,
4
+ "do_lower_case": true,
5
+ "mask_token": "[MASK]",
6
+ "max_len": 512,
7
+ "name_or_path": "models/LawBERT-IT_trained",
8
+ "never_split": null,
9
+ "pad_token": "[PAD]",
10
+ "sep_token": "[SEP]",
11
+ "special_tokens_map_file": null,
12
+ "strip_accents": null,
13
+ "tokenize_chinese_chars": true,
14
+ "tokenizer_class": "BertTokenizer",
15
+ "unk_token": "[UNK]"
16
+ }
vocab.txt ADDED
The diff for this file is too large to render. See raw diff