cmolinier commited on
Commit
724d662
·
verified ·
1 Parent(s): 70cef3c

End of training

Browse files
README.md ADDED
@@ -0,0 +1,53 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: mit
3
+ base_model: gpt2
4
+ tags:
5
+ - generated_from_trainer
6
+ model-index:
7
+ - name: output
8
+ results: []
9
+ ---
10
+
11
+ <!-- This model card has been generated automatically according to the information the Trainer had access to. You
12
+ should probably proofread and complete it, then remove this comment. -->
13
+
14
+ # output
15
+
16
+ This model is a fine-tuned version of [gpt2](https://huggingface.co/gpt2) on an unknown dataset.
17
+
18
+ ## Model description
19
+
20
+ More information needed
21
+
22
+ ## Intended uses & limitations
23
+
24
+ More information needed
25
+
26
+ ## Training and evaluation data
27
+
28
+ More information needed
29
+
30
+ ## Training procedure
31
+
32
+ ### Training hyperparameters
33
+
34
+ The following hyperparameters were used during training:
35
+ - learning_rate: 0.0005
36
+ - train_batch_size: 4
37
+ - eval_batch_size: 4
38
+ - seed: 1
39
+ - optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
40
+ - lr_scheduler_type: cosine
41
+ - lr_scheduler_warmup_ratio: 0.01
42
+ - num_epochs: 1
43
+
44
+ ### Training results
45
+
46
+
47
+
48
+ ### Framework versions
49
+
50
+ - Transformers 4.36.2
51
+ - Pytorch 2.1.0+cpu
52
+ - Datasets 2.16.1
53
+ - Tokenizers 0.15.0
config.json ADDED
@@ -0,0 +1,40 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "gpt2",
3
+ "activation_function": "gelu_new",
4
+ "architectures": [
5
+ "GPT2LMHeadModel"
6
+ ],
7
+ "attn_pdrop": 0.1,
8
+ "bos_token_id": null,
9
+ "embd_pdrop": 0.1,
10
+ "eos_token_id": null,
11
+ "initializer_range": 0.02,
12
+ "layer_norm_epsilon": 1e-05,
13
+ "model_type": "gpt2",
14
+ "n_ctx": 1024,
15
+ "n_embd": 512,
16
+ "n_head": 8,
17
+ "n_inner": null,
18
+ "n_layer": 6,
19
+ "n_positions": 2048,
20
+ "pad_token_id": 3,
21
+ "reorder_and_upcast_attn": false,
22
+ "resid_pdrop": 0.1,
23
+ "scale_attn_by_inverse_layer_idx": false,
24
+ "scale_attn_weights": true,
25
+ "summary_activation": null,
26
+ "summary_first_dropout": 0.1,
27
+ "summary_proj_to_labels": true,
28
+ "summary_type": "cls_index",
29
+ "summary_use_proj": true,
30
+ "task_specific_params": {
31
+ "text-generation": {
32
+ "do_sample": true,
33
+ "max_length": 50
34
+ }
35
+ },
36
+ "torch_dtype": "float32",
37
+ "transformers_version": "4.36.2",
38
+ "use_cache": true,
39
+ "vocab_size": 765
40
+ }
generation_config.json ADDED
@@ -0,0 +1,5 @@
 
 
 
 
 
 
1
+ {
2
+ "_from_model_config": true,
3
+ "pad_token_id": 3,
4
+ "transformers_version": "4.36.2"
5
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:5cc87e716e7c104330b07dbcc5a193b2dd1050e56c1c8b9dc6b6f808362ddfdf
3
+ size 81429896
special_tokens_map.json ADDED
@@ -0,0 +1,9 @@
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "pad_token": {
3
+ "content": "[PAD]",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ }
9
+ }
tokenizer.json ADDED
@@ -0,0 +1,829 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "version": "1.0",
3
+ "truncation": null,
4
+ "padding": null,
5
+ "added_tokens": [
6
+ {
7
+ "id": 0,
8
+ "content": "[UNK]",
9
+ "single_word": false,
10
+ "lstrip": false,
11
+ "rstrip": false,
12
+ "normalized": false,
13
+ "special": true
14
+ },
15
+ {
16
+ "id": 1,
17
+ "content": "[CLS]",
18
+ "single_word": false,
19
+ "lstrip": false,
20
+ "rstrip": false,
21
+ "normalized": false,
22
+ "special": true
23
+ },
24
+ {
25
+ "id": 2,
26
+ "content": "[SEP]",
27
+ "single_word": false,
28
+ "lstrip": false,
29
+ "rstrip": false,
30
+ "normalized": false,
31
+ "special": true
32
+ },
33
+ {
34
+ "id": 3,
35
+ "content": "[PAD]",
36
+ "single_word": false,
37
+ "lstrip": false,
38
+ "rstrip": false,
39
+ "normalized": false,
40
+ "special": true
41
+ },
42
+ {
43
+ "id": 4,
44
+ "content": "[MASK]",
45
+ "single_word": false,
46
+ "lstrip": false,
47
+ "rstrip": false,
48
+ "normalized": false,
49
+ "special": true
50
+ }
51
+ ],
52
+ "normalizer": null,
53
+ "pre_tokenizer": {
54
+ "type": "WhitespaceSplit"
55
+ },
56
+ "post_processor": null,
57
+ "decoder": null,
58
+ "model": {
59
+ "type": "WordLevel",
60
+ "vocab": {
61
+ "[UNK]": 0,
62
+ "[CLS]": 1,
63
+ "[SEP]": 2,
64
+ "[PAD]": 3,
65
+ "[MASK]": 4,
66
+ "TIME_DELTA=0.08333333333333393": 5,
67
+ "TIME_DELTA=0.08333333333333304": 6,
68
+ "BAR_END": 7,
69
+ "BAR_START": 8,
70
+ "TIME_DELTA=0.9166666666666661": 9,
71
+ "TIME_DELTA=1.916666666666666": 10,
72
+ "TIME_DELTA=0.08333333333333348": 11,
73
+ "TIME_DELTA=1.25": 12,
74
+ "NOTE_OFF=38": 13,
75
+ "NOTE_ON=38": 14,
76
+ "TIME_DELTA=0.4166666666666661": 15,
77
+ "TIME_DELTA=0.916666666666667": 16,
78
+ "TIME_DELTA=1.916666666666667": 17,
79
+ "NOTE_OFF=36": 18,
80
+ "NOTE_ON=36": 19,
81
+ "NOTE_OFF=42": 20,
82
+ "NOTE_ON=42": 21,
83
+ "TIME_DELTA=0.5833333333333334": 22,
84
+ "TIME_DELTA=0.08333333333333326": 23,
85
+ "TIME_DELTA=0.25": 24,
86
+ "TIME_DELTA=0.9166666666666665": 25,
87
+ "TIME_DELTA=0.08333333333333215": 26,
88
+ "TIME_DELTA=0.08333333333333333": 27,
89
+ "NOTE_OFF=69": 28,
90
+ "NOTE_ON=69": 29,
91
+ "NOTE_OFF=72": 30,
92
+ "NOTE_ON=72": 31,
93
+ "NOTE_OFF=67": 32,
94
+ "NOTE_ON=67": 33,
95
+ "NOTE_OFF=40": 34,
96
+ "NOTE_ON=40": 35,
97
+ "NOTE_OFF=64": 36,
98
+ "NOTE_ON=64": 37,
99
+ "NOTE_OFF=71": 38,
100
+ "NOTE_ON=71": 39,
101
+ "TIME_DELTA=0.41666666666666696": 40,
102
+ "NOTE_OFF=73": 41,
103
+ "NOTE_ON=73": 42,
104
+ "NOTE_OFF=62": 43,
105
+ "NOTE_ON=62": 44,
106
+ "NOTE_OFF=74": 45,
107
+ "NOTE_ON=74": 46,
108
+ "NOTE_OFF=35": 47,
109
+ "NOTE_ON=35": 48,
110
+ "NOTE_OFF=76": 49,
111
+ "NOTE_ON=76": 50,
112
+ "NOTE_OFF=65": 51,
113
+ "NOTE_ON=65": 52,
114
+ "NOTE_OFF=66": 53,
115
+ "NOTE_ON=66": 54,
116
+ "TIME_DELTA=0.5833333333333339": 55,
117
+ "NOTE_OFF=44": 56,
118
+ "NOTE_ON=44": 57,
119
+ "NOTE_OFF=60": 58,
120
+ "NOTE_ON=60": 59,
121
+ "NOTE_OFF=43": 60,
122
+ "NOTE_ON=43": 61,
123
+ "NOTE_OFF=68": 62,
124
+ "NOTE_ON=68": 63,
125
+ "TIME_DELTA=3.916666666666666": 64,
126
+ "TIME_DELTA=1.0": 65,
127
+ "NOTE_OFF=70": 66,
128
+ "NOTE_ON=70": 67,
129
+ "TIME_DELTA=1.9166666666666667": 68,
130
+ "NOTE_OFF=79": 69,
131
+ "NOTE_ON=79": 70,
132
+ "NOTE_OFF=61": 71,
133
+ "NOTE_ON=61": 72,
134
+ "NOTE_OFF=59": 73,
135
+ "NOTE_ON=59": 74,
136
+ "NOTE_OFF=63": 75,
137
+ "NOTE_ON=63": 76,
138
+ "NOTE_OFF=77": 77,
139
+ "NOTE_ON=77": 78,
140
+ "NOTE_OFF=57": 79,
141
+ "NOTE_ON=57": 80,
142
+ "TIME_DELTA=0.9166666666666666": 81,
143
+ "NOTE_OFF=78": 82,
144
+ "NOTE_ON=78": 83,
145
+ "NOTE_OFF=81": 84,
146
+ "NOTE_ON=81": 85,
147
+ "NOTE_OFF=75": 86,
148
+ "NOTE_ON=75": 87,
149
+ "NOTE_OFF=48": 88,
150
+ "NOTE_ON=48": 89,
151
+ "NOTE_OFF=46": 90,
152
+ "NOTE_ON=46": 91,
153
+ "TRACK_END": 92,
154
+ "TRACK_START": 93,
155
+ "NOTE_OFF=80": 94,
156
+ "NOTE_ON=80": 95,
157
+ "NOTE_OFF=41": 96,
158
+ "NOTE_ON=41": 97,
159
+ "NOTE_OFF=54": 98,
160
+ "NOTE_ON=54": 99,
161
+ "NOTE_OFF=37": 100,
162
+ "NOTE_ON=37": 101,
163
+ "NOTE_OFF=55": 102,
164
+ "NOTE_ON=55": 103,
165
+ "TIME_DELTA=0.5": 104,
166
+ "TIME_DELTA=2.0": 105,
167
+ "NOTE_OFF=45": 106,
168
+ "NOTE_ON=45": 107,
169
+ "NOTE_OFF=56": 108,
170
+ "NOTE_ON=56": 109,
171
+ "TIME_DELTA=0.08333333333333337": 110,
172
+ "TIME_DELTA=0.583333333333333": 111,
173
+ "TIME_DELTA=0.4166666666666665": 112,
174
+ "NOTE_OFF=58": 113,
175
+ "NOTE_ON=58": 114,
176
+ "NOTE_OFF=82": 115,
177
+ "NOTE_ON=82": 116,
178
+ "NOTE_OFF=84": 117,
179
+ "NOTE_ON=84": 118,
180
+ "NOTE_OFF=52": 119,
181
+ "NOTE_ON=52": 120,
182
+ "NOTE_OFF=47": 121,
183
+ "NOTE_ON=47": 122,
184
+ "NOTE_OFF=83": 123,
185
+ "NOTE_ON=83": 124,
186
+ "NOTE_OFF=53": 125,
187
+ "NOTE_ON=53": 126,
188
+ "NOTE_OFF=85": 127,
189
+ "NOTE_ON=85": 128,
190
+ "NOTE_OFF=39": 129,
191
+ "NOTE_ON=39": 130,
192
+ "TIME_DELTA=0.6666666666666666": 131,
193
+ "TIME_DELTA=1.083333333333334": 132,
194
+ "NOTE_OFF=50": 133,
195
+ "NOTE_ON=50": 134,
196
+ "NOTE_OFF=49": 135,
197
+ "NOTE_ON=49": 136,
198
+ "NOTE_OFF=34": 137,
199
+ "NOTE_ON=34": 138,
200
+ "NOTE_OFF=51": 139,
201
+ "NOTE_ON=51": 140,
202
+ "TIME_DELTA=0.4166666666666667": 141,
203
+ "NOTE_OFF=88": 142,
204
+ "NOTE_ON=88": 143,
205
+ "TIME_DELTA=0.16666666666666607": 144,
206
+ "NOTE_OFF=86": 145,
207
+ "NOTE_ON=86": 146,
208
+ "TIME_DELTA=0.75": 147,
209
+ "NOTE_OFF=32": 148,
210
+ "NOTE_ON=32": 149,
211
+ "TIME_DELTA=1.416666666666666": 150,
212
+ "TIME_DELTA=1.083333333333333": 151,
213
+ "TIME_DELTA=3.9166666666666665": 152,
214
+ "NOTE_OFF=29": 153,
215
+ "NOTE_ON=29": 154,
216
+ "TIME_DELTA=0.41666666666666674": 155,
217
+ "TIME_DELTA=4.0": 156,
218
+ "NOTE_OFF=33": 157,
219
+ "NOTE_ON=33": 158,
220
+ "TIME_DELTA=1.0833333333333335": 159,
221
+ "NOTE_OFF=87": 160,
222
+ "NOTE_ON=87": 161,
223
+ "TIME_DELTA=0.5833333333333335": 162,
224
+ "TIME_DELTA=2.583333333333334": 163,
225
+ "TIME_DELTA=2.916666666666666": 164,
226
+ "NOTE_OFF=31": 165,
227
+ "NOTE_ON=31": 166,
228
+ "TIME_DELTA=0.3333333333333333": 167,
229
+ "TIME_DELTA=0.08333333333333331": 168,
230
+ "TIME_DELTA=0.3333333333333339": 169,
231
+ "NOTE_OFF=89": 170,
232
+ "NOTE_ON=89": 171,
233
+ "NOTE_OFF=30": 172,
234
+ "NOTE_ON=30": 173,
235
+ "TIME_DELTA=0.6666666666666661": 174,
236
+ "TIME_DELTA=1.416666666666667": 175,
237
+ "TIME_DELTA=0.16666666666666696": 176,
238
+ "TIME_DELTA=0.16666666666666666": 177,
239
+ "TIME_DELTA=1.3333333333333333": 178,
240
+ "TIME_DELTA=8.881784197001252e-16": 179,
241
+ "TIME_DELTA=0.5833333333333333": 180,
242
+ "TIME_DELTA=7.916666666666667": 181,
243
+ "TIME_DELTA=2.5833333333333335": 182,
244
+ "NOTE_OFF=90": 183,
245
+ "NOTE_ON=90": 184,
246
+ "DENSITY=3": 185,
247
+ "DENSITY=4": 186,
248
+ "TIME_DELTA=2.083333333333333": 187,
249
+ "TIME_DELTA=1.7763568394002505e-15": 188,
250
+ "DENSITY=0": 189,
251
+ "TIME_DELTA=0.8333333333333339": 190,
252
+ "DENSITY=2": 191,
253
+ "TIME_DELTA=1.2499999999999998": 192,
254
+ "DENSITY=1": 193,
255
+ "NOTE_OFF=92": 194,
256
+ "NOTE_ON=92": 195,
257
+ "TIME_DELTA=0.5833333333333321": 196,
258
+ "TIME_DELTA=5.916666666666667": 197,
259
+ "NOTE_OFF=91": 198,
260
+ "NOTE_ON=91": 199,
261
+ "TIME_DELTA=8.0": 200,
262
+ "TIME_DELTA=0.33333333333333304": 201,
263
+ "TIME_DELTA=5.916666666666668": 202,
264
+ "GENRE=OTHER": 203,
265
+ "PIECE_START": 204,
266
+ "TIME_SIGNATURE=4_4": 205,
267
+ "TIME_DELTA=3.416666666666666": 206,
268
+ "TIME_DELTA=7.916666666666668": 207,
269
+ "NOTE_OFF=93": 208,
270
+ "NOTE_ON=93": 209,
271
+ "TIME_DELTA=0.666666666666667": 210,
272
+ "TIME_DELTA=1.4166666666666667": 211,
273
+ "NOTE_OFF=28": 212,
274
+ "NOTE_ON=28": 213,
275
+ "TIME_DELTA=15.916666666666666": 214,
276
+ "TIME_DELTA=4.440892098500626e-16": 215,
277
+ "TIME_DELTA=1.333333333333334": 216,
278
+ "NOTE_OFF=94": 217,
279
+ "NOTE_ON=94": 218,
280
+ "TIME_DELTA=0.16666666666666652": 219,
281
+ "TIME_DELTA=2.083333333333334": 220,
282
+ "NOTE_OFF=96": 221,
283
+ "NOTE_ON=96": 222,
284
+ "NOTE_OFF=95": 223,
285
+ "NOTE_ON=95": 224,
286
+ "NOTE_OFF=97": 225,
287
+ "NOTE_ON=97": 226,
288
+ "TIME_DELTA=1.583333333333334": 227,
289
+ "TIME_DELTA=0.6666666666666665": 228,
290
+ "TIME_DELTA=1.4166666666666665": 229,
291
+ "INST=1": 230,
292
+ "TIME_DELTA=0.833333333333333": 231,
293
+ "TIME_DELTA=3.25": 232,
294
+ "TIME_DELTA=1.0833333333333333": 233,
295
+ "TIME_DELTA=1.9166666666666665": 234,
296
+ "INST=48": 235,
297
+ "TIME_DELTA=1.5": 236,
298
+ "TIME_DELTA=2.25": 237,
299
+ "TIME_DELTA=0.33333333333333215": 238,
300
+ "TIME_DELTA=1.333333333333333": 239,
301
+ "TIME_DELTA=0.8333333333333335": 240,
302
+ "TIME_DELTA=1.75": 241,
303
+ "TIME_DELTA=16.0": 242,
304
+ "TIME_DELTA=1.833333333333334": 243,
305
+ "TIME_DELTA=0.41666666666666785": 244,
306
+ "TIME_DELTA=0.41666666666666663": 245,
307
+ "TIME_DELTA=2.9166666666666665": 246,
308
+ "TIME_DELTA=2.0833333333333335": 247,
309
+ "TIME_DELTA=12.0": 248,
310
+ "TIME_DELTA=0.6666666666666679": 249,
311
+ "TIME_DELTA=2.220446049250313e-16": 250,
312
+ "TIME_DELTA=1.833333333333333": 251,
313
+ "TIME_DELTA=0.9166666666666679": 252,
314
+ "TIME_DELTA=0.3333333333333335": 253,
315
+ "TIME_DELTA=0.9166666666666667": 254,
316
+ "TIME_DELTA=2.6666666666666665": 255,
317
+ "NOTE_OFF=27": 256,
318
+ "NOTE_ON=27": 257,
319
+ "INST=2": 258,
320
+ "TIME_DELTA=2.416666666666666": 259,
321
+ "TIME_DELTA=1.5833333333333333": 260,
322
+ "TIME_DELTA=1.0000000000000004": 261,
323
+ "TIME_DELTA=1.583333333333333": 262,
324
+ "TIME_DELTA=0.16666666666666785": 263,
325
+ "TIME_DELTA=1.5833333333333335": 264,
326
+ "TIME_DELTA=11.916666666666666": 265,
327
+ "INST=56": 266,
328
+ "NOTE_OFF=98": 267,
329
+ "NOTE_ON=98": 268,
330
+ "NOTE_OFF=23": 269,
331
+ "NOTE_ON=23": 270,
332
+ "TIME_DELTA=3.083333333333333": 271,
333
+ "TIME_DELTA=4.083333333333334": 272,
334
+ "TIME_DELTA=5.416666666666667": 273,
335
+ "TIME_DELTA=3.4166666666666665": 274,
336
+ "NOTE_OFF=99": 275,
337
+ "NOTE_ON=99": 276,
338
+ "NOTE_OFF=100": 277,
339
+ "NOTE_ON=100": 278,
340
+ "TIME_DELTA=3.833333333333334": 279,
341
+ "TIME_DELTA=3.0": 280,
342
+ "TIME_DELTA=3.583333333333334": 281,
343
+ "TIME_DELTA=6.0": 282,
344
+ "INST=60": 283,
345
+ "TIME_DELTA=3.083333333333334": 284,
346
+ "INST=47": 285,
347
+ "TIME_DELTA=1.0833333333333321": 286,
348
+ "TIME_DELTA=9.916666666666666": 287,
349
+ "TIME_DELTA=3.0833333333333335": 288,
350
+ "NOTE_OFF=25": 289,
351
+ "NOTE_ON=25": 290,
352
+ "TIME_DELTA=2.5": 291,
353
+ "TIME_DELTA=14.0": 292,
354
+ "TIME_DELTA=2.666666666666666": 293,
355
+ "NOTE_OFF=26": 294,
356
+ "NOTE_ON=26": 295,
357
+ "INST=39": 296,
358
+ "TIME_DELTA=1.8333333333333333": 297,
359
+ "TIME_DELTA=0.16666666666666674": 298,
360
+ "TIME_DELTA=4.083333333333333": 299,
361
+ "TIME_DELTA=1.9166666666666679": 300,
362
+ "INST=32": 301,
363
+ "TIME_DELTA=5.416666666666668": 302,
364
+ "INST=46": 303,
365
+ "TIME_DELTA=0.8333333333333334": 304,
366
+ "TIME_DELTA=5.25": 305,
367
+ "TIME_DELTA=4.916666666666667": 306,
368
+ "TIME_DELTA=0.16666666666666663": 307,
369
+ "TIME_DELTA=1.1666666666666667": 308,
370
+ "TIME_DELTA=7.416666666666668": 309,
371
+ "TIME_DELTA=4.916666666666668": 310,
372
+ "NOTE_OFF=24": 311,
373
+ "NOTE_ON=24": 312,
374
+ "INST=14": 313,
375
+ "INST=6": 314,
376
+ "TIME_DELTA=1.4166666666666679": 315,
377
+ "TIME_DELTA=2.4166666666666665": 316,
378
+ "TIME_DELTA=2.583333333333333": 317,
379
+ "TIME_DELTA=2.75": 318,
380
+ "NOTE_OFF=103": 319,
381
+ "NOTE_ON=103": 320,
382
+ "TIME_DELTA=1.166666666666666": 321,
383
+ "TIME_DELTA=10.0": 322,
384
+ "TIME_DELTA=7.416666666666667": 323,
385
+ "INST=73": 324,
386
+ "TIME_DELTA=3.75": 325,
387
+ "INST=5": 326,
388
+ "TIME_DELTA=1.5833333333333321": 327,
389
+ "TIME_DELTA=1.2499999999999991": 328,
390
+ "TIME_DELTA=1.3333333333333335": 329,
391
+ "TIME_DELTA=3.5": 330,
392
+ "INST=3": 331,
393
+ "INST=64": 332,
394
+ "NOTE_OFF=102": 333,
395
+ "NOTE_ON=102": 334,
396
+ "TIME_DELTA=1.1102230246251565e-16": 335,
397
+ "TIME_DELTA=3.5833333333333335": 336,
398
+ "NOTE_OFF=101": 337,
399
+ "NOTE_ON=101": 338,
400
+ "TIME_DELTA=0.4999999999999991": 339,
401
+ "TIME_DELTA=0.49999999999999994": 340,
402
+ "TIME_DELTA=2.166666666666667": 341,
403
+ "INST=29": 342,
404
+ "TIME_DELTA=0.33333333333333326": 343,
405
+ "TIME_DELTA=1.3333333333333321": 344,
406
+ "INST=65": 345,
407
+ "INST=11": 346,
408
+ "INST=15": 347,
409
+ "INST=20": 348,
410
+ "TIME_DELTA=0.7499999999999999": 349,
411
+ "TIME_DELTA=6.666666666666667": 350,
412
+ "INST=18": 351,
413
+ "TIME_DELTA=13.916666666666666": 352,
414
+ "INST=71": 353,
415
+ "TIME_DELTA=7.0": 354,
416
+ "INST=19": 355,
417
+ "TIME_DELTA=2.666666666666667": 356,
418
+ "TIME_DELTA=6.083333333333333": 357,
419
+ "TIME_DELTA=8.916666666666666": 358,
420
+ "TIME_DELTA=1.2500000000000009": 359,
421
+ "TIME_DELTA=1.666666666666666": 360,
422
+ "TIME_DELTA=5.0": 361,
423
+ "TIME_DELTA=6.583333333333333": 362,
424
+ "INST=37": 363,
425
+ "TIME_DELTA=14.916666666666666": 364,
426
+ "TIME_DELTA=0.24999999999999994": 365,
427
+ "TIME_DELTA=0.33333333333333337": 366,
428
+ "TIME_DELTA=0.9999999999999991": 367,
429
+ "TIME_DELTA=15.416666666666666": 368,
430
+ "TIME_DELTA=3.3333333333333335": 369,
431
+ "TIME_DELTA=3.8333333333333335": 370,
432
+ "TIME_DELTA=0.24999999999999822": 371,
433
+ "TIME_DELTA=7.5": 372,
434
+ "INST=35": 373,
435
+ "TIME_DELTA=5.083333333333333": 374,
436
+ "INST=4": 375,
437
+ "INST=9": 376,
438
+ "TIME_DELTA=0.25000000000000006": 377,
439
+ "TIME_DELTA=3.916666666666668": 378,
440
+ "INST=57": 379,
441
+ "TIME_DELTA=2.1666666666666665": 380,
442
+ "TIME_DELTA=1.666666666666667": 381,
443
+ "TIME_DELTA=4.583333333333333": 382,
444
+ "INST=17": 383,
445
+ "TIME_DELTA=2.166666666666666": 384,
446
+ "TIME_DELTA=6.916666666666668": 385,
447
+ "TIME_DELTA=6.916666666666667": 386,
448
+ "TIME_DELTA=0.49999999999999956": 387,
449
+ "TIME_DELTA=0.7499999999999998": 388,
450
+ "TIME_DELTA=9.0": 389,
451
+ "INST=24": 390,
452
+ "TIME_DELTA=0.2499999999999991": 391,
453
+ "TIME_DELTA=1.166666666666667": 392,
454
+ "TIME_DELTA=3.583333333333333": 393,
455
+ "INST=21": 394,
456
+ "INST=34": 395,
457
+ "TIME_DELTA=1.1666666666666679": 396,
458
+ "TIME_DELTA=1.2500000000000004": 397,
459
+ "TIME_DELTA=2.583333333333332": 398,
460
+ "TIME_DELTA=5.083333333333334": 399,
461
+ "TIME_DELTA=7.916666666666666": 400,
462
+ "INST=58": 401,
463
+ "INST=12": 402,
464
+ "TIME_DELTA=0.24999999999999956": 403,
465
+ "INST=40": 404,
466
+ "TIME_DELTA=1.0000000000000009": 405,
467
+ "TIME_DELTA=10.916666666666666": 406,
468
+ "TIME_DELTA=3.6666666666666665": 407,
469
+ "INST=45": 408,
470
+ "TIME_DELTA=11.75": 409,
471
+ "TIME_DELTA=15.0": 410,
472
+ "TIME_DELTA=4.416666666666667": 411,
473
+ "TIME_DELTA=4.583333333333334": 412,
474
+ "TIME_DELTA=1.6666666666666667": 413,
475
+ "TIME_DELTA=1.7500000000000009": 414,
476
+ "TIME_DELTA=6.5": 415,
477
+ "INST=27": 416,
478
+ "TIME_DELTA=0.6666666666666667": 417,
479
+ "TIME_DELTA=0.0833333333333357": 418,
480
+ "TIME_DELTA=3.249999999999999": 419,
481
+ "INST=16": 420,
482
+ "TIME_DELTA=0.4999999999999998": 421,
483
+ "TIME_DELTA=1.9999999999999991": 422,
484
+ "TIME_DELTA=15.5": 423,
485
+ "TIME_DELTA=8.083333333333334": 424,
486
+ "TIME_DELTA=0.5000000000000018": 425,
487
+ "TIME_DELTA=1.8333333333333321": 426,
488
+ "TIME_DELTA=2.333333333333334": 427,
489
+ "TIME_DELTA=3.583333333333332": 428,
490
+ "TIME_DELTA=4.416666666666668": 429,
491
+ "TIME_DELTA=5.916666666666666": 430,
492
+ "NOTE_OFF=104": 431,
493
+ "NOTE_OFF=105": 432,
494
+ "NOTE_ON=104": 433,
495
+ "NOTE_ON=105": 434,
496
+ "TIME_DELTA=0.2500000000000009": 435,
497
+ "TIME_DELTA=2.083333333333332": 436,
498
+ "TIME_DELTA=6.416666666666667": 437,
499
+ "TIME_DELTA=1.2500000000000002": 438,
500
+ "TIME_DELTA=5.333333333333333": 439,
501
+ "TIME_DELTA=6.166666666666667": 440,
502
+ "INST=26": 441,
503
+ "INST=68": 442,
504
+ "INST=81": 443,
505
+ "TIME_DELTA=1.7500000000000004": 444,
506
+ "TIME_DELTA=14.666666666666666": 445,
507
+ "TIME_DELTA=5.833333333333332": 446,
508
+ "TIME_DELTA=7.25": 447,
509
+ "TIME_DELTA=7.583333333333333": 448,
510
+ "INST=77": 449,
511
+ "TIME_DELTA=1.0000000000000018": 450,
512
+ "TIME_DELTA=1.2499999999999996": 451,
513
+ "TIME_DELTA=12.916666666666666": 452,
514
+ "TIME_DELTA=3.916666666666667": 453,
515
+ "TIME_DELTA=4.5": 454,
516
+ "TIME_DELTA=5.250000000000001": 455,
517
+ "TIME_DELTA=5.833333333333333": 456,
518
+ "TIME_DELTA=6.833333333333332": 457,
519
+ "TIME_DELTA=9.083333333333334": 458,
520
+ "TIME_DELTA=9.333333333333334": 459,
521
+ "INST=55": 460,
522
+ "NOTE_OFF=22": 461,
523
+ "NOTE_ON=22": 462,
524
+ "TIME_DELTA=11.416666666666666": 463,
525
+ "TIME_DELTA=13.333333333333334": 464,
526
+ "TIME_DELTA=2.333333333333333": 465,
527
+ "TIME_DELTA=2.416666666666667": 466,
528
+ "TIME_DELTA=5.166666666666667": 467,
529
+ "TIME_DELTA=0.2500000000000002": 468,
530
+ "TIME_DELTA=0.2500000000000018": 469,
531
+ "TIME_DELTA=0.5000000000000009": 470,
532
+ "TIME_DELTA=0.6666666666666663": 471,
533
+ "TIME_DELTA=0.8333333333333333": 472,
534
+ "TIME_DELTA=0.9999999999999998": 473,
535
+ "TIME_DELTA=13.0": 474,
536
+ "TIME_DELTA=2.916666666666667": 475,
537
+ "TIME_DELTA=4.75": 476,
538
+ "TIME_DELTA=5.5": 477,
539
+ "TIME_DELTA=9.416666666666666": 478,
540
+ "INST=31": 479,
541
+ "TIME_DELTA=0.16666666666666669": 480,
542
+ "TIME_DELTA=0.7500000000000018": 481,
543
+ "TIME_DELTA=1.1666666666666665": 482,
544
+ "TIME_DELTA=10.666666666666666": 483,
545
+ "TIME_DELTA=15.833333333333334": 484,
546
+ "TIME_DELTA=2.250000000000001": 485,
547
+ "TIME_DELTA=7.333333333333333": 486,
548
+ "TIME_DELTA=8.416666666666666": 487,
549
+ "INST=22": 488,
550
+ "INST=51": 489,
551
+ "INST=61": 490,
552
+ "INST=7": 491,
553
+ "NOTE_OFF=115": 492,
554
+ "NOTE_ON=115": 493,
555
+ "TIME_DELTA=0.25000000000000044": 494,
556
+ "TIME_DELTA=0.5000000000000004": 495,
557
+ "TIME_DELTA=0.8333333333333321": 496,
558
+ "TIME_DELTA=1.8333333333333335": 497,
559
+ "TIME_DELTA=10.083333333333334": 498,
560
+ "TIME_DELTA=4.25": 499,
561
+ "TIME_DELTA=5.583333333333334": 500,
562
+ "TIME_DELTA=6.333333333333332": 501,
563
+ "TIME_DELTA=8.583333333333334": 502,
564
+ "INST=105": 503,
565
+ "INST=23": 504,
566
+ "INST=33": 505,
567
+ "NOTE_OFF=107": 506,
568
+ "NOTE_ON=107": 507,
569
+ "TIME_DELTA=0.7499999999999991": 508,
570
+ "TIME_DELTA=10.416666666666666": 509,
571
+ "TIME_DELTA=15.333333333333334": 510,
572
+ "TIME_DELTA=2.666666666666668": 511,
573
+ "TIME_DELTA=4.833333333333333": 512,
574
+ "TIME_DELTA=5.583333333333333": 513,
575
+ "TIME_DELTA=6.416666666666668": 514,
576
+ "TIME_DELTA=6.583333333333332": 515,
577
+ "TIME_DELTA=9.25": 516,
578
+ "INST=52": 517,
579
+ "NOTE_OFF=106": 518,
580
+ "NOTE_ON=106": 519,
581
+ "TIME_DELTA=0.4999999999999982": 520,
582
+ "TIME_DELTA=12.75": 521,
583
+ "TIME_DELTA=13.25": 522,
584
+ "TIME_DELTA=9.166666666666666": 523,
585
+ "INST=36": 524,
586
+ "INST=67": 525,
587
+ "INST=74": 526,
588
+ "NOTE_OFF=117": 527,
589
+ "NOTE_ON=117": 528,
590
+ "TIME_DELTA=0.9999999999999996": 529,
591
+ "TIME_DELTA=11.0": 530,
592
+ "TIME_DELTA=2.0000000000000004": 531,
593
+ "TIME_DELTA=3.416666666666668": 532,
594
+ "TIME_DELTA=3.500000000000001": 533,
595
+ "TIME_DELTA=4.166666666666667": 534,
596
+ "TIME_DELTA=4.333333333333333": 535,
597
+ "TIME_DELTA=6.083333333333334": 536,
598
+ "TIME_DELTA=6.916666666666666": 537,
599
+ "TIME_DELTA=7.583333333333332": 538,
600
+ "TIME_DELTA=9.583333333333334": 539,
601
+ "INST=38": 540,
602
+ "INST=78": 541,
603
+ "NOTE_OFF=114": 542,
604
+ "NOTE_ON=114": 543,
605
+ "TIME_DELTA=0.08333333333333334": 544,
606
+ "TIME_DELTA=0.4999999999999999": 545,
607
+ "TIME_DELTA=1.7499999999999991": 546,
608
+ "TIME_DELTA=12.083333333333332": 547,
609
+ "TIME_DELTA=2.3333333333333335": 548,
610
+ "TIME_DELTA=2.5833333333333326": 549,
611
+ "TIME_DELTA=2.7499999999999996": 550,
612
+ "TIME_DELTA=2.7500000000000004": 551,
613
+ "TIME_DELTA=3.666666666666666": 552,
614
+ "TIME_DELTA=4.833333333333332": 553,
615
+ "TIME_DELTA=5.416666666666666": 554,
616
+ "TIME_DELTA=6.583333333333334": 555,
617
+ "TIME_DELTA=7.75": 556,
618
+ "TIME_DELTA=9.583333333333332": 557,
619
+ "INST=13": 558,
620
+ "TIME_DELTA=0.24999999999999978": 559,
621
+ "TIME_DELTA=1.6666666666666665": 560,
622
+ "TIME_DELTA=11.25": 561,
623
+ "TIME_DELTA=15.75": 562,
624
+ "TIME_DELTA=2.0000000000000018": 563,
625
+ "TIME_DELTA=2.416666666666668": 564,
626
+ "TIME_DELTA=5.583333333333335": 565,
627
+ "TIME_DELTA=7.833333333333333": 566,
628
+ "TIME_DELTA=8.666666666666666": 567,
629
+ "TIME_DELTA=9.083333333333332": 568,
630
+ "INST=80": 569,
631
+ "TIME_DELTA=0.2500000000000001": 570,
632
+ "TIME_DELTA=0.7500000000000002": 571,
633
+ "TIME_DELTA=0.9166666666666674": 572,
634
+ "TIME_DELTA=1.5000000000000004": 573,
635
+ "TIME_DELTA=1.5000000000000009": 574,
636
+ "TIME_DELTA=1.7499999999999996": 575,
637
+ "TIME_DELTA=10.25": 576,
638
+ "TIME_DELTA=11.833333333333334": 577,
639
+ "TIME_DELTA=2.000000000000001": 578,
640
+ "TIME_DELTA=2.2500000000000004": 579,
641
+ "TIME_DELTA=2.999999999999999": 580,
642
+ "TIME_DELTA=3.166666666666666": 581,
643
+ "TIME_DELTA=3.416666666666667": 582,
644
+ "TIME_DELTA=3.5000000000000018": 583,
645
+ "TIME_DELTA=4.666666666666667": 584,
646
+ "TIME_DELTA=5.333333333333332": 585,
647
+ "TIME_DELTA=6.25": 586,
648
+ "TIME_DELTA=6.666666666666666": 587,
649
+ "TIME_DELTA=7.083333333333333": 588,
650
+ "TIME_DELTA=7.583333333333334": 589,
651
+ "TIME_DELTA=8.083333333333332": 590,
652
+ "INST=0": 591,
653
+ "INST=42": 592,
654
+ "INST=50": 593,
655
+ "INST=76": 594,
656
+ "NOTE_OFF=119": 595,
657
+ "NOTE_ON=119": 596,
658
+ "TIME_DELTA=0.5000000000000002": 597,
659
+ "TIME_DELTA=0.9166666666666652": 598,
660
+ "TIME_DELTA=0.9999999999999982": 599,
661
+ "TIME_DELTA=1.9999999999999982": 600,
662
+ "TIME_DELTA=10.083333333333332": 601,
663
+ "TIME_DELTA=13.083333333333334": 602,
664
+ "TIME_DELTA=3.1666666666666665": 603,
665
+ "TIME_DELTA=3.333333333333334": 604,
666
+ "TIME_DELTA=4.249999999999998": 605,
667
+ "TIME_DELTA=4.249999999999999": 606,
668
+ "TIME_DELTA=4.416666666666666": 607,
669
+ "TIME_DELTA=6.333333333333333": 608,
670
+ "TIME_DELTA=7.250000000000001": 609,
671
+ "TIME_DELTA=7.999999999999999": 610,
672
+ "INST=30": 611,
673
+ "INST=41": 612,
674
+ "INST=49": 613,
675
+ "INST=59": 614,
676
+ "NOTE_OFF=108": 615,
677
+ "NOTE_OFF=109": 616,
678
+ "NOTE_OFF=110": 617,
679
+ "NOTE_OFF=122": 618,
680
+ "NOTE_ON=108": 619,
681
+ "NOTE_ON=109": 620,
682
+ "NOTE_ON=110": 621,
683
+ "NOTE_ON=122": 622,
684
+ "TIME_DELTA=0.24999999999999997": 623,
685
+ "TIME_DELTA=0.4166666666666643": 624,
686
+ "TIME_DELTA=0.5833333333333357": 625,
687
+ "TIME_DELTA=0.9166666666666663": 626,
688
+ "TIME_DELTA=1.4166666666666674": 627,
689
+ "TIME_DELTA=1.4999999999999982": 628,
690
+ "TIME_DELTA=1.9999999999999998": 629,
691
+ "TIME_DELTA=10.166666666666666": 630,
692
+ "TIME_DELTA=11.583333333333332": 631,
693
+ "TIME_DELTA=11.583333333333334": 632,
694
+ "TIME_DELTA=12.333333333333334": 633,
695
+ "TIME_DELTA=12.583333333333334": 634,
696
+ "TIME_DELTA=13.416666666666666": 635,
697
+ "TIME_DELTA=13.75": 636,
698
+ "TIME_DELTA=13.833333333333334": 637,
699
+ "TIME_DELTA=14.416666666666666": 638,
700
+ "TIME_DELTA=2.166666666666668": 639,
701
+ "TIME_DELTA=2.333333333333332": 640,
702
+ "TIME_DELTA=2.499999999999999": 641,
703
+ "TIME_DELTA=2.749999999999999": 642,
704
+ "TIME_DELTA=3.000000000000001": 643,
705
+ "TIME_DELTA=3.5000000000000004": 644,
706
+ "TIME_DELTA=5.166666666666668": 645,
707
+ "TIME_DELTA=5.75": 646,
708
+ "TIME_DELTA=6.583333333333335": 647,
709
+ "TIME_DELTA=8.583333333333332": 648,
710
+ "INST=25": 649,
711
+ "INST=28": 650,
712
+ "INST=43": 651,
713
+ "INST=75": 652,
714
+ "NOTE_OFF=21": 653,
715
+ "NOTE_ON=21": 654,
716
+ "TIME_DELTA=0.3333333333333357": 655,
717
+ "TIME_DELTA=0.5000000000000001": 656,
718
+ "TIME_DELTA=0.7500000000000004": 657,
719
+ "TIME_DELTA=1.4999999999999991": 658,
720
+ "TIME_DELTA=10.5": 659,
721
+ "TIME_DELTA=10.583333333333334": 660,
722
+ "TIME_DELTA=11.916666666666668": 661,
723
+ "TIME_DELTA=12.5": 662,
724
+ "TIME_DELTA=2.4999999999999996": 663,
725
+ "TIME_DELTA=2.8333333333333335": 664,
726
+ "TIME_DELTA=2.916666666666668": 665,
727
+ "TIME_DELTA=3.0000000000000018": 666,
728
+ "TIME_DELTA=3.083333333333332": 667,
729
+ "TIME_DELTA=3.166666666666667": 668,
730
+ "TIME_DELTA=3.499999999999999": 669,
731
+ "TIME_DELTA=3.749999999999999": 670,
732
+ "TIME_DELTA=4.083333333333332": 671,
733
+ "TIME_DELTA=4.250000000000001": 672,
734
+ "TIME_DELTA=4.583333333333332": 673,
735
+ "TIME_DELTA=4.916666666666666": 674,
736
+ "TIME_DELTA=6.416666666666666": 675,
737
+ "TIME_DELTA=6.916666666666665": 676,
738
+ "TIME_DELTA=7.666666666666667": 677,
739
+ "INST=54": 678,
740
+ "INST=63": 679,
741
+ "INST=70": 680,
742
+ "NOTE_OFF=112": 681,
743
+ "NOTE_OFF=124": 682,
744
+ "NOTE_ON=112": 683,
745
+ "NOTE_ON=124": 684,
746
+ "TIME_DELTA=1.0000000000000002": 685,
747
+ "TIME_DELTA=10.75": 686,
748
+ "TIME_DELTA=11.333333333333334": 687,
749
+ "TIME_DELTA=11.5": 688,
750
+ "TIME_DELTA=11.666666666666668": 689,
751
+ "TIME_DELTA=12.083333333333334": 690,
752
+ "TIME_DELTA=12.25": 691,
753
+ "TIME_DELTA=12.416666666666666": 692,
754
+ "TIME_DELTA=13.5": 693,
755
+ "TIME_DELTA=15.583333333333334": 694,
756
+ "TIME_DELTA=2.249999999999999": 695,
757
+ "TIME_DELTA=2.2499999999999996": 696,
758
+ "TIME_DELTA=2.5000000000000018": 697,
759
+ "TIME_DELTA=2.750000000000001": 698,
760
+ "TIME_DELTA=2.833333333333332": 699,
761
+ "TIME_DELTA=3.2500000000000004": 700,
762
+ "TIME_DELTA=3.333333333333332": 701,
763
+ "TIME_DELTA=3.5833333333333326": 702,
764
+ "TIME_DELTA=3.666666666666668": 703,
765
+ "TIME_DELTA=3.999999999999999": 704,
766
+ "TIME_DELTA=4.750000000000001": 705,
767
+ "TIME_DELTA=5.166666666666665": 706,
768
+ "TIME_DELTA=5.166666666666666": 707,
769
+ "TIME_DELTA=5.249999999999999": 708,
770
+ "TIME_DELTA=5.250000000000002": 709,
771
+ "TIME_DELTA=5.583333333333332": 710,
772
+ "TIME_DELTA=6.749999999999999": 711,
773
+ "TIME_DELTA=6.75": 712,
774
+ "TIME_DELTA=6.833333333333333": 713,
775
+ "TIME_DELTA=7.000000000000002": 714,
776
+ "TIME_DELTA=7.083333333333334": 715,
777
+ "TIME_DELTA=7.333333333333334": 716,
778
+ "TIME_DELTA=7.499999999999999": 717,
779
+ "TIME_DELTA=7.583333333333335": 718,
780
+ "TIME_DELTA=7.833333333333332": 719,
781
+ "TIME_DELTA=8.25": 720,
782
+ "7": 721,
783
+ "INST=72": 722,
784
+ "INST=84": 723,
785
+ "NOTE_OFF=116": 724,
786
+ "NOTE_OFF=118": 725,
787
+ "NOTE_OFF=120": 726,
788
+ "NOTE_OFF=20": 727,
789
+ "NOTE_ON=116": 728,
790
+ "NOTE_ON=118": 729,
791
+ "NOTE_ON=120": 730,
792
+ "NOTE_ON=20": 731,
793
+ "TIME_DELTA=0.16666666666666685": 732,
794
+ "TIME_DELTA=0.5833333333333331": 733,
795
+ "TIME_DELTA=0.7499999999999982": 734,
796
+ "TIME_DELTA=0.7500000000000001": 735,
797
+ "TIME_DELTA=0.9999999999999999": 736,
798
+ "TIME_DELTA=1.2500000000000018": 737,
799
+ "TIME_DELTA=1.4999999999999998": 738,
800
+ "TIME_DELTA=1.5000000000000018": 739,
801
+ "TIME_DELTA=1.9166666666666652": 740,
802
+ "TIME_DELTA=11.666666666666666": 741,
803
+ "TIME_DELTA=12.833333333333334": 742,
804
+ "TIME_DELTA=13.583333333333334": 743,
805
+ "TIME_DELTA=14.083333333333334": 744,
806
+ "TIME_DELTA=14.333333333333334": 745,
807
+ "TIME_DELTA=15.25": 746,
808
+ "TIME_DELTA=15.333333333333332": 747,
809
+ "TIME_DELTA=2.4999999999999982": 748,
810
+ "TIME_DELTA=3.333333333333333": 749,
811
+ "TIME_DELTA=3.833333333333333": 750,
812
+ "TIME_DELTA=4.583333333333335": 751,
813
+ "TIME_DELTA=4.666666666666666": 752,
814
+ "TIME_DELTA=5.666666666666667": 753,
815
+ "TIME_DELTA=5.749999999999998": 754,
816
+ "TIME_DELTA=6.249999999999998": 755,
817
+ "TIME_DELTA=7.250000000000002": 756,
818
+ "TIME_DELTA=7.416666666666666": 757,
819
+ "TIME_DELTA=7.500000000000002": 758,
820
+ "TIME_DELTA=7.749999999999999": 759,
821
+ "TIME_DELTA=7.750000000000002": 760,
822
+ "TIME_DELTA=8.333333333333334": 761,
823
+ "TIME_DELTA=9.5": 762,
824
+ "TIME_DELTA=9.666666666666666": 763,
825
+ "TIME_DELTA=9.75": 764
826
+ },
827
+ "unk_token": "[UNK]"
828
+ }
829
+ }
tokenizer_config.json ADDED
@@ -0,0 +1,48 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "[UNK]",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "[CLS]",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "[SEP]",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "[PAD]",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "4": {
36
+ "content": "[MASK]",
37
+ "lstrip": false,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "clean_up_tokenization_spaces": true,
45
+ "model_max_length": 1000000000000000019884624838656,
46
+ "pad_token": "[PAD]",
47
+ "tokenizer_class": "PreTrainedTokenizerFast"
48
+ }
training_args.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:e05d5e6e0b2f204b42f6f982115d0374655c8f56d712861d9787be557f273f48
3
+ size 4664