juancopi81 commited on
Commit
3919e78
1 Parent(s): 1ad20a2

Training in progress epoch 0

Browse files
Files changed (6) hide show
  1. README.md +51 -1
  2. config.json +38 -0
  3. special_tokens_map.json +5 -0
  4. tf_model.h5 +3 -0
  5. tokenizer.json +621 -0
  6. tokenizer_config.json +7 -0
README.md CHANGED
@@ -1,3 +1,53 @@
1
  ---
2
- license: cc0-1.0
 
 
 
 
 
3
  ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
  ---
2
+ license: mit
3
+ tags:
4
+ - generated_from_keras_callback
5
+ model-index:
6
+ - name: juancopi81/mutopia_guitar_mmm
7
+ results: []
8
  ---
9
+
10
+ <!-- This model card has been generated automatically according to the information Keras had access to. You should
11
+ probably proofread and complete it, then remove this comment. -->
12
+
13
+ # juancopi81/mutopia_guitar_mmm
14
+
15
+ This model is a fine-tuned version of [gpt2](https://huggingface.co/gpt2) on an unknown dataset.
16
+ It achieves the following results on the evaluation set:
17
+ - Train Loss: 2.5962
18
+ - Validation Loss: 1.9512
19
+ - Epoch: 0
20
+
21
+ ## Model description
22
+
23
+ More information needed
24
+
25
+ ## Intended uses & limitations
26
+
27
+ More information needed
28
+
29
+ ## Training and evaluation data
30
+
31
+ More information needed
32
+
33
+ ## Training procedure
34
+
35
+ ### Training hyperparameters
36
+
37
+ The following hyperparameters were used during training:
38
+ - optimizer: {'name': 'AdamWeightDecay', 'learning_rate': {'class_name': 'WarmUp', 'config': {'initial_learning_rate': 5e-05, 'decay_schedule_fn': {'class_name': 'PolynomialDecay', 'config': {'initial_learning_rate': 5e-05, 'decay_steps': 2363, 'end_learning_rate': 0.0, 'power': 1.0, 'cycle': False, 'name': None}, '__passive_serialization__': True}, 'warmup_steps': 1000, 'power': 1.0, 'name': None}}, 'decay': 0.0, 'beta_1': 0.9, 'beta_2': 0.999, 'epsilon': 1e-08, 'amsgrad': False, 'weight_decay_rate': 0.01}
39
+ - training_precision: mixed_float16
40
+
41
+ ### Training results
42
+
43
+ | Train Loss | Validation Loss | Epoch |
44
+ |:----------:|:---------------:|:-----:|
45
+ | 2.5962 | 1.9512 | 0 |
46
+
47
+
48
+ ### Framework versions
49
+
50
+ - Transformers 4.21.2
51
+ - TensorFlow 2.8.2
52
+ - Datasets 2.4.0
53
+ - Tokenizers 0.12.1
config.json ADDED
@@ -0,0 +1,38 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "gpt2",
3
+ "activation_function": "gelu_new",
4
+ "architectures": [
5
+ "GPT2LMHeadModel"
6
+ ],
7
+ "attn_pdrop": 0.1,
8
+ "bos_token_id": 0,
9
+ "embd_pdrop": 0.1,
10
+ "eos_token_id": 0,
11
+ "initializer_range": 0.02,
12
+ "layer_norm_epsilon": 1e-05,
13
+ "model_type": "gpt2",
14
+ "n_ctx": 256,
15
+ "n_embd": 768,
16
+ "n_head": 12,
17
+ "n_inner": null,
18
+ "n_layer": 12,
19
+ "n_positions": 1024,
20
+ "reorder_and_upcast_attn": false,
21
+ "resid_pdrop": 0.1,
22
+ "scale_attn_by_inverse_layer_idx": false,
23
+ "scale_attn_weights": true,
24
+ "summary_activation": null,
25
+ "summary_first_dropout": 0.1,
26
+ "summary_proj_to_labels": true,
27
+ "summary_type": "cls_index",
28
+ "summary_use_proj": true,
29
+ "task_specific_params": {
30
+ "text-generation": {
31
+ "do_sample": true,
32
+ "max_length": 50
33
+ }
34
+ },
35
+ "transformers_version": "4.21.2",
36
+ "use_cache": true,
37
+ "vocab_size": 588
38
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,5 @@
 
 
 
 
 
 
1
+ {
2
+ "bos_token": "<|endoftext|>",
3
+ "eos_token": "<|endoftext|>",
4
+ "pad_token": "<|endoftext|>"
5
+ }
tf_model.h5 ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:9d87b388e98218cee10f7e5c6d2c1f686d1aa9542c059a2cb9e60f57a8ea2967
3
+ size 345352296
tokenizer.json ADDED
@@ -0,0 +1,621 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "version": "1.0",
3
+ "truncation": {
4
+ "direction": "Right",
5
+ "max_length": 256,
6
+ "strategy": "LongestFirst",
7
+ "stride": 0
8
+ },
9
+ "padding": null,
10
+ "added_tokens": [
11
+ {
12
+ "id": 0,
13
+ "content": "<|endoftext|>",
14
+ "single_word": false,
15
+ "lstrip": false,
16
+ "rstrip": false,
17
+ "normalized": false,
18
+ "special": true
19
+ }
20
+ ],
21
+ "normalizer": null,
22
+ "pre_tokenizer": {
23
+ "type": "WhitespaceSplit"
24
+ },
25
+ "post_processor": null,
26
+ "decoder": null,
27
+ "model": {
28
+ "type": "WordLevel",
29
+ "vocab": {
30
+ "<|endoftext|>": 0,
31
+ "TIME_DELTA=1.0": 1,
32
+ "TIME_DELTA=2.0": 2,
33
+ "BAR_END": 3,
34
+ "BAR_START": 4,
35
+ "TIME_DELTA=4.0": 5,
36
+ "NOTE_OFF=64": 6,
37
+ "NOTE_ON=64": 7,
38
+ "NOTE_OFF=62": 8,
39
+ "NOTE_ON=62": 9,
40
+ "NOTE_OFF=67": 10,
41
+ "NOTE_ON=67": 11,
42
+ "NOTE_OFF=60": 12,
43
+ "NOTE_ON=60": 13,
44
+ "NOTE_OFF=61": 14,
45
+ "NOTE_ON=61": 15,
46
+ "NOTE_OFF=66": 16,
47
+ "NOTE_ON=66": 17,
48
+ "NOTE_OFF=65": 18,
49
+ "NOTE_ON=65": 19,
50
+ "NOTE_OFF=63": 20,
51
+ "NOTE_ON=63": 21,
52
+ "NOTE_OFF=59": 22,
53
+ "NOTE_ON=59": 23,
54
+ "NOTE_OFF=57": 24,
55
+ "NOTE_ON=57": 25,
56
+ "NOTE_OFF=68": 26,
57
+ "NOTE_ON=68": 27,
58
+ "NOTE_OFF=69": 28,
59
+ "NOTE_ON=69": 29,
60
+ "NOTE_OFF=58": 30,
61
+ "NOTE_ON=58": 31,
62
+ "NOTE_OFF=56": 32,
63
+ "NOTE_ON=56": 33,
64
+ "NOTE_OFF=55": 34,
65
+ "NOTE_ON=55": 35,
66
+ "NOTE_OFF=71": 36,
67
+ "NOTE_ON=71": 37,
68
+ "NOTE_OFF=70": 38,
69
+ "NOTE_ON=70": 39,
70
+ "NOTE_OFF=54": 40,
71
+ "NOTE_ON=54": 41,
72
+ "NOTE_OFF=53": 42,
73
+ "NOTE_ON=53": 43,
74
+ "NOTE_OFF=52": 44,
75
+ "NOTE_ON=52": 45,
76
+ "NOTE_OFF=72": 46,
77
+ "NOTE_ON=72": 47,
78
+ "NOTE_OFF=73": 48,
79
+ "NOTE_ON=73": 49,
80
+ "NOTE_OFF=74": 50,
81
+ "NOTE_ON=74": 51,
82
+ "NOTE_OFF=51": 52,
83
+ "NOTE_ON=51": 53,
84
+ "TIME_DELTA=1.3333333333333333": 54,
85
+ "NOTE_OFF=50": 55,
86
+ "NOTE_ON=50": 56,
87
+ "TIME_DELTA=0.6666666666666666": 57,
88
+ "NOTE_OFF=75": 58,
89
+ "NOTE_ON=75": 59,
90
+ "NOTE_OFF=76": 60,
91
+ "NOTE_ON=76": 61,
92
+ "NOTE_OFF=49": 62,
93
+ "NOTE_ON=49": 63,
94
+ "NOTE_OFF=48": 64,
95
+ "NOTE_ON=48": 65,
96
+ "NOTE_OFF=47": 66,
97
+ "NOTE_ON=47": 67,
98
+ "NOTE_OFF=77": 68,
99
+ "NOTE_ON=77": 69,
100
+ "NOTE_OFF=78": 70,
101
+ "NOTE_ON=78": 71,
102
+ "NOTE_OFF=79": 72,
103
+ "NOTE_ON=79": 73,
104
+ "NOTE_OFF=46": 74,
105
+ "NOTE_ON=46": 75,
106
+ "NOTE_OFF=45": 76,
107
+ "NOTE_ON=45": 77,
108
+ "NOTE_OFF=80": 78,
109
+ "NOTE_ON=80": 79,
110
+ "NOTE_OFF=81": 80,
111
+ "NOTE_ON=81": 81,
112
+ "NOTE_OFF=44": 82,
113
+ "NOTE_ON=44": 83,
114
+ "NOTE_OFF=43": 84,
115
+ "NOTE_ON=43": 85,
116
+ "TIME_DELTA=0.5": 86,
117
+ "TIME_DELTA=3.0": 87,
118
+ "NOTE_OFF=82": 88,
119
+ "NOTE_ON=82": 89,
120
+ "NOTE_OFF=83": 90,
121
+ "NOTE_ON=83": 91,
122
+ "NOTE_OFF=42": 92,
123
+ "NOTE_ON=42": 93,
124
+ "NOTE_OFF=41": 94,
125
+ "NOTE_ON=41": 95,
126
+ "NOTE_OFF=84": 96,
127
+ "NOTE_ON=84": 97,
128
+ "NOTE_OFF=40": 98,
129
+ "NOTE_ON=40": 99,
130
+ "NOTE_OFF=85": 100,
131
+ "NOTE_ON=85": 101,
132
+ "TIME_DELTA=1.333333333333334": 102,
133
+ "TIME_DELTA=0.666666666666667": 103,
134
+ "NOTE_OFF=86": 104,
135
+ "NOTE_ON=86": 105,
136
+ "NOTE_OFF=39": 106,
137
+ "NOTE_ON=39": 107,
138
+ "NOTE_OFF=38": 108,
139
+ "NOTE_ON=38": 109,
140
+ "TIME_DELTA=1.333333333333333": 110,
141
+ "TIME_DELTA=0.05833333333333357": 111,
142
+ "TIME_DELTA=1.5": 112,
143
+ "NOTE_OFF=87": 113,
144
+ "NOTE_ON=87": 114,
145
+ "NOTE_OFF=88": 115,
146
+ "NOTE_ON=88": 116,
147
+ "TIME_DELTA=0.9416666666666664": 117,
148
+ "TIME_DELTA=8.0": 118,
149
+ "NOTE_OFF=37": 119,
150
+ "NOTE_ON=37": 120,
151
+ "NOTE_OFF=36": 121,
152
+ "NOTE_ON=36": 122,
153
+ "TIME_DELTA=0.6666666666666665": 123,
154
+ "INST=0": 124,
155
+ "PIECE_END": 125,
156
+ "PIECE_START": 126,
157
+ "TRACK_END": 127,
158
+ "TRACK_START": 128,
159
+ "NOTE_OFF=35": 129,
160
+ "NOTE_ON=35": 130,
161
+ "NOTE_OFF=89": 131,
162
+ "NOTE_ON=89": 132,
163
+ "TIME_DELTA=6.0": 133,
164
+ "TIME_DELTA=0.21875": 134,
165
+ "NOTE_OFF=90": 135,
166
+ "NOTE_ON=90": 136,
167
+ "TIME_DELTA=0.4479166666666667": 137,
168
+ "NOTE_OFF=34": 138,
169
+ "NOTE_ON=34": 139,
170
+ "NOTE_OFF=33": 140,
171
+ "NOTE_ON=33": 141,
172
+ "TIME_DELTA=0.010416666666666963": 142,
173
+ "TIME_DELTA=0.00833333333333286": 143,
174
+ "NOTE_OFF=91": 144,
175
+ "NOTE_ON=91": 145,
176
+ "TIME_DELTA=1.9916666666666671": 146,
177
+ "TIME_DELTA=8.881784197001252e-16": 147,
178
+ "TIME_DELTA=0.6666666666666661": 148,
179
+ "TIME_DELTA=1.3333333333333335": 149,
180
+ "NOTE_OFF=32": 150,
181
+ "NOTE_ON=32": 151,
182
+ "TIME_DELTA=0.10833333333333428": 152,
183
+ "TIME_DELTA=0.008333333333333304": 153,
184
+ "NOTE_OFF=31": 154,
185
+ "NOTE_ON=31": 155,
186
+ "TIME_DELTA=0.010416666666666519": 156,
187
+ "NOTE_OFF=92": 157,
188
+ "NOTE_ON=92": 158,
189
+ "TIME_DELTA=1.9916666666666667": 159,
190
+ "TIME_DELTA=1.8916666666666657": 160,
191
+ "TIME_SIGNATURE=2_4": 161,
192
+ "TIME_DELTA=1.7763568394002505e-15": 162,
193
+ "TIME_DELTA=3.541666666666666": 163,
194
+ "TIME_DELTA=0.28125": 164,
195
+ "TIME_DELTA=4.440892098500626e-16": 165,
196
+ "TIME_DELTA=0.10833333333333339": 166,
197
+ "TIME_SIGNATURE=4_4": 167,
198
+ "NOTE_OFF=30": 168,
199
+ "NOTE_ON=30": 169,
200
+ "NOTE_OFF=93": 170,
201
+ "NOTE_ON=93": 171,
202
+ "TIME_DELTA=1.8916666666666666": 172,
203
+ "TIME_DELTA=0.010416666666666075": 173,
204
+ "TIME_DELTA=0.01041666666666674": 174,
205
+ "TIME_DELTA=1.541666666666667": 175,
206
+ "TIME_DELTA=3.991666666666667": 176,
207
+ "NOTE_OFF=29": 177,
208
+ "NOTE_ON=29": 178,
209
+ "DENSITY=1": 179,
210
+ "DENSITY=2": 180,
211
+ "DENSITY=4": 181,
212
+ "DENSITY=3": 182,
213
+ "DENSITY=0": 183,
214
+ "NOTE_OFF=28": 184,
215
+ "NOTE_ON=28": 185,
216
+ "TIME_DELTA=0.05833333333333335": 186,
217
+ "TIME_DELTA=0.9416666666666667": 187,
218
+ "TIME_DELTA=1.770833333333333": 188,
219
+ "TIME_SIGNATURE=6_8": 189,
220
+ "TIME_DELTA=12.0": 190,
221
+ "TIME_DELTA=0.7916666666666661": 191,
222
+ "TIME_DELTA=1.5416666666666665": 192,
223
+ "TIME_DELTA=0.25": 193,
224
+ "TIME_DELTA=1.5416666666666667": 194,
225
+ "TIME_SIGNATURE=3_4": 195,
226
+ "BPM=90": 196,
227
+ "TIME_DELTA=0.34999999999999964": 197,
228
+ "TIME_DELTA=0.5916666666666668": 198,
229
+ "NOTE_OFF=94": 199,
230
+ "NOTE_ON=94": 200,
231
+ "TIME_DELTA=0.6666666666666667": 201,
232
+ "TIME_DELTA=1.541666666666666": 202,
233
+ "BPM=100": 203,
234
+ "BPM=120": 204,
235
+ "TIME_DELTA=0.6916666666666664": 205,
236
+ "NOTE_OFF=95": 206,
237
+ "NOTE_ON=95": 207,
238
+ "BPM=60": 208,
239
+ "TIME_DELTA=1.770833333333334": 209,
240
+ "TIME_DELTA=0.4479166666666665": 210,
241
+ "TIME_DELTA=0.125": 211,
242
+ "TIME_SIGNATURE=3_8": 212,
243
+ "BPM=80": 213,
244
+ "TIME_DELTA=0.3958333333333333": 214,
245
+ "TIME_DELTA=0.3333333333333333": 215,
246
+ "TIME_DELTA=3.5416666666666665": 216,
247
+ "TIME_DELTA=0.23958333333333348": 217,
248
+ "TIME_DELTA=0.15000000000000036": 218,
249
+ "TIME_DELTA=2.220446049250313e-16": 219,
250
+ "TIME_DELTA=0.01041666666666663": 220,
251
+ "TIME_DELTA=1.5916666666666668": 221,
252
+ "TIME_DELTA=3.999999999999999": 222,
253
+ "TIME_DELTA=0.9916666666666667": 223,
254
+ "BPM=72": 224,
255
+ "TIME_DELTA=1.9999999999999991": 225,
256
+ "TIME_DELTA=1.9999999999999998": 226,
257
+ "TIME_DELTA=1.7708333333333333": 227,
258
+ "TIME_DELTA=0.4999999999999982": 228,
259
+ "TIME_DELTA=1.3916666666666675": 229,
260
+ "TIME_DELTA=1.9999999999999996": 230,
261
+ "TIME_DELTA=0.8916666666666657": 231,
262
+ "TIME_DELTA=0.20833333333333393": 232,
263
+ "TIME_DELTA=0.23958333333333326": 233,
264
+ "BPM=96": 234,
265
+ "TIME_DELTA=0.9999999999999982": 235,
266
+ "TIME_DELTA=1.3916666666666657": 236,
267
+ "BPM=74": 237,
268
+ "BPM=110": 238,
269
+ "NOTE_OFF=96": 239,
270
+ "NOTE_ON=96": 240,
271
+ "TIME_DELTA=0.2812499999999999": 241,
272
+ "TIME_DELTA=0.9999999999999996": 242,
273
+ "TIME_DELTA=0.10416666666666667": 243,
274
+ "TIME_DELTA=0.23958333333333304": 244,
275
+ "TIME_DELTA=0.770833333333333": 245,
276
+ "TIME_DELTA=0.23958333333333393": 246,
277
+ "TIME_DELTA=0.2916666666666667": 247,
278
+ "TIME_DELTA=0.29999999999999893": 248,
279
+ "TIME_DELTA=0.2999999999999998": 249,
280
+ "TIME_DELTA=0.3854166666666667": 250,
281
+ "TIME_DELTA=1.6145833333333333": 251,
282
+ "TIME_DELTA=1.7083333333333333": 252,
283
+ "TIME_DELTA=1.9166666666666667": 253,
284
+ "BPM=104": 254,
285
+ "TIME_DELTA=0.008333333333333748": 255,
286
+ "TIME_DELTA=0.16666666666666607": 256,
287
+ "TIME_DELTA=5.991666666666666": 257,
288
+ "NOTE_OFF=97": 258,
289
+ "NOTE_ON=97": 259,
290
+ "TIME_DELTA=0.625": 260,
291
+ "TIME_DELTA=10.0": 261,
292
+ "TIME_DELTA=0.4583333333333339": 262,
293
+ "TIME_DELTA=1.9999999999999982": 263,
294
+ "TIME_DELTA=2.999999999999999": 264,
295
+ "TIME_DELTA=1.9583333333333333": 265,
296
+ "TIME_DELTA=0.020833333333333332": 266,
297
+ "BPM=132": 267,
298
+ "TIME_DELTA=0.05000000000000071": 268,
299
+ "TIME_DELTA=0.010416666666666666": 269,
300
+ "TIME_DELTA=0.10000000000000142": 270,
301
+ "TIME_DELTA=0.16666666666666696": 271,
302
+ "TIME_DELTA=0.21874999999999956": 272,
303
+ "TIME_DELTA=0.36458333333333326": 273,
304
+ "TIME_DELTA=0.833333333333333": 274,
305
+ "TIME_DELTA=0.8333333333333339": 275,
306
+ "TIME_DELTA=1.3333333333333321": 276,
307
+ "TIME_DELTA=1.6916666666666664": 277,
308
+ "TIME_DELTA=1.8645833333333333": 278,
309
+ "TIME_DELTA=0.9999999999999998": 279,
310
+ "TIME_DELTA=0.1499999999999999": 280,
311
+ "TIME_DELTA=0.7916666666666665": 281,
312
+ "TIME_DELTA=3.7708333333333335": 282,
313
+ "TIME_DELTA=0.33333333333333304": 283,
314
+ "TIME_DELTA=0.541666666666667": 284,
315
+ "TIME_DELTA=0.26041666666666696": 285,
316
+ "TIME_DELTA=0.1999999999999993": 286,
317
+ "BPM=144": 287,
318
+ "TIME_DELTA=0.10416666666666607": 288,
319
+ "TIME_DELTA=0.13541666666666666": 289,
320
+ "TIME_DELTA=0.33333333333333215": 290,
321
+ "TIME_DELTA=0.4479166666666661": 291,
322
+ "TIME_DELTA=0.7708333333333334": 292,
323
+ "TIME_DELTA=1.6666666666666667": 293,
324
+ "TIME_DELTA=7.541666666666666": 294,
325
+ "TIME_DELTA=0.041666666666666664": 295,
326
+ "TIME_DELTA=1.7708333333333335": 296,
327
+ "TIME_DELTA=0.26041666666666674": 297,
328
+ "TIME_SIGNATURE=12_8": 298,
329
+ "TIME_DELTA=0.08333333333333304": 299,
330
+ "TIME_DELTA=0.08333333333333333": 300,
331
+ "TIME_DELTA=0.09375": 301,
332
+ "TIME_DELTA=0.22916666666666607": 302,
333
+ "TIME_DELTA=0.22916666666666652": 303,
334
+ "TIME_DELTA=0.39583333333333326": 304,
335
+ "TIME_DELTA=1.8333333333333333": 305,
336
+ "TIME_DELTA=2.625": 306,
337
+ "TIME_DELTA=2.75": 307,
338
+ "TIME_DELTA=9.991666666666667": 308,
339
+ "TIME_DELTA=1.9791666666666667": 309,
340
+ "TIME_DELTA=0.3333333333333335": 310,
341
+ "TIME_DELTA=0.9999999999999991": 311,
342
+ "BPM=84": 312,
343
+ "TIME_DELTA=0.2604166666666661": 313,
344
+ "TIME_DELTA=3.770833333333334": 314,
345
+ "BPM=160": 315,
346
+ "BPM=180": 316,
347
+ "BPM=92": 317,
348
+ "TIME_DELTA=0.5416666666666665": 318,
349
+ "NOTE_OFF=98": 319,
350
+ "NOTE_ON=98": 320,
351
+ "TIME_DELTA=0.05208333333333215": 321,
352
+ "TIME_DELTA=0.33333333333333326": 322,
353
+ "TIME_DELTA=0.34375": 323,
354
+ "TIME_DELTA=1.65625": 324,
355
+ "TIME_DELTA=1.864583333333333": 325,
356
+ "TIME_DELTA=3.09375": 326,
357
+ "TIME_DELTA=6.000000000000001": 327,
358
+ "TIME_DELTA=0.2187499999999991": 328,
359
+ "TIME_DELTA=0.041666666666666075": 329,
360
+ "TIME_DELTA=0.739583333333333": 330,
361
+ "TIME_DELTA=1.7395833333333333": 331,
362
+ "TIME_DELTA=0.7395833333333334": 332,
363
+ "TIME_DELTA=1.322916666666666": 333,
364
+ "BPM=108": 334,
365
+ "TIME_DELTA=0.04166666666666674": 335,
366
+ "TIME_DELTA=0.0625": 336,
367
+ "TIME_DELTA=0.16666666666666652": 337,
368
+ "TIME_DELTA=0.16666666666666666": 338,
369
+ "TIME_DELTA=0.3854166666666665": 339,
370
+ "TIME_DELTA=0.45833333333333304": 340,
371
+ "TIME_DELTA=0.8333333333333335": 341,
372
+ "TIME_DELTA=0.9916666666666671": 342,
373
+ "TIME_DELTA=1.0083333333333329": 343,
374
+ "TIME_DELTA=1.0083333333333333": 344,
375
+ "TIME_DELTA=1.7916666666666667": 345,
376
+ "TIME_DELTA=1.90625": 346,
377
+ "TIME_DELTA=1.9479166666666667": 347,
378
+ "TIME_DELTA=1.9916666666666663": 348,
379
+ "TIME_DELTA=3.322916666666666": 349,
380
+ "TIME_DELTA=5.770833333333332": 350,
381
+ "TIME_DELTA=5.770833333333334": 351,
382
+ "TIME_DELTA=7.0": 352,
383
+ "TIME_DELTA=0.5416666666666666": 353,
384
+ "TIME_DELTA=0.5416666666666661": 354,
385
+ "TIME_DELTA=1.2583333333333333": 355,
386
+ "TIME_DELTA=2.000000000000001": 356,
387
+ "TIME_DELTA=7.591666666666667": 357,
388
+ "TIME_DELTA=0.2604166666666667": 358,
389
+ "TIME_DELTA=0.3125": 359,
390
+ "TIME_DELTA=0.3645833333333333": 360,
391
+ "TIME_DELTA=0.7708333333333335": 361,
392
+ "TIME_DELTA=0.8958333333333339": 362,
393
+ "TIME_DELTA=16.0": 363,
394
+ "TIME_DELTA=5.770833333333333": 364,
395
+ "BPM=130": 365,
396
+ "BPM=88": 366,
397
+ "TIME_DELTA=0.04166666666666652": 367,
398
+ "TIME_DELTA=0.07291666666666667": 368,
399
+ "TIME_DELTA=0.20833333333333215": 369,
400
+ "TIME_DELTA=0.21874999999999978": 370,
401
+ "TIME_DELTA=0.36458333333333215": 371,
402
+ "TIME_DELTA=0.3645833333333335": 372,
403
+ "TIME_DELTA=0.3645833333333339": 373,
404
+ "TIME_DELTA=0.4375": 374,
405
+ "TIME_DELTA=0.44791666666666674": 375,
406
+ "TIME_DELTA=0.6458333333333334": 376,
407
+ "TIME_DELTA=0.7395833333333333": 377,
408
+ "TIME_DELTA=0.7708333333333333": 378,
409
+ "TIME_DELTA=0.7708333333333339": 379,
410
+ "TIME_DELTA=1.0416666666666665": 380,
411
+ "TIME_DELTA=1.260416666666666": 381,
412
+ "TIME_DELTA=1.6875": 382,
413
+ "TIME_DELTA=1.875": 383,
414
+ "TIME_DELTA=1.8958333333333333": 384,
415
+ "TIME_DELTA=1.9375": 385,
416
+ "TIME_DELTA=24.0": 386,
417
+ "TIME_DELTA=3.625": 387,
418
+ "TIME_DELTA=5.541666666666667": 388,
419
+ "NOTE_OFF=26": 389,
420
+ "NOTE_OFF=27": 390,
421
+ "NOTE_ON=26": 391,
422
+ "NOTE_ON=27": 392,
423
+ "NOTE_OFF=99": 393,
424
+ "NOTE_ON=99": 394,
425
+ "TIME_DELTA=0.9999999999999999": 395,
426
+ "TIME_DELTA=0.23958333333333334": 396,
427
+ "TIME_DELTA=0.49999999999999956": 397,
428
+ "TIME_DELTA=0.04166666666666696": 398,
429
+ "TIME_DELTA=1.2604166666666665": 399,
430
+ "TIME_DELTA=2.991666666666667": 400,
431
+ "TIME_DELTA=3.791666666666666": 401,
432
+ "TIME_DELTA=0.12499999999999956": 402,
433
+ "TIME_DELTA=0.22916666666666785": 403,
434
+ "TIME_DELTA=1.739583333333333": 404,
435
+ "TIME_DELTA=1.7708333333333321": 405,
436
+ "TIME_DELTA=2.0000000000000004": 406,
437
+ "TIME_SIGNATURE=2_2": 407,
438
+ "BPM=86": 408,
439
+ "BPM=94": 409,
440
+ "TIME_DELTA=0.010416666666667851": 410,
441
+ "TIME_DELTA=0.02083333333333215": 411,
442
+ "TIME_DELTA=0.14583333333333304": 412,
443
+ "TIME_DELTA=0.2395833333333337": 413,
444
+ "TIME_DELTA=0.24166666666666625": 414,
445
+ "TIME_DELTA=0.26041666666666663": 415,
446
+ "TIME_DELTA=0.3541666666666667": 416,
447
+ "TIME_DELTA=0.39583333333333304": 417,
448
+ "TIME_DELTA=0.44791666666666696": 418,
449
+ "TIME_DELTA=0.45833333333333326": 419,
450
+ "TIME_DELTA=0.4583333333333335": 420,
451
+ "TIME_DELTA=0.6770833333333339": 421,
452
+ "TIME_DELTA=0.7395833333333339": 422,
453
+ "TIME_DELTA=0.7916666666666666": 423,
454
+ "TIME_DELTA=1.3229166666666667": 424,
455
+ "TIME_DELTA=1.322916666666667": 425,
456
+ "TIME_DELTA=1.6354166666666667": 426,
457
+ "TIME_DELTA=1.6979166666666667": 427,
458
+ "TIME_DELTA=1.7416666666666671": 428,
459
+ "TIME_DELTA=1.84375": 429,
460
+ "TIME_DELTA=1.9270833333333333": 430,
461
+ "TIME_DELTA=11.991666666666667": 431,
462
+ "TIME_DELTA=2.09375": 432,
463
+ "TIME_DELTA=2.2604166666666665": 433,
464
+ "TIME_DELTA=2.6250000000000004": 434,
465
+ "TIME_DELTA=2.7499999999999996": 435,
466
+ "TIME_DELTA=2.841666666666667": 436,
467
+ "TIME_DELTA=3.7395833333333335": 437,
468
+ "TIME_DELTA=3.739583333333334": 438,
469
+ "TIME_DELTA=3.8958333333333335": 439,
470
+ "TIME_DELTA=4.000000000000001": 440,
471
+ "NOTE_OFF=100": 441,
472
+ "NOTE_ON=100": 442,
473
+ "TIME_DELTA=0.075": 443,
474
+ "TIME_DELTA=0.07500000000000018": 444,
475
+ "TIME_DELTA=0.2916666666666661": 445,
476
+ "TIME_DELTA=1.2583333333333329": 446,
477
+ "TIME_DELTA=1.260416666666667": 447,
478
+ "BPM=30": 448,
479
+ "BPM=76": 449,
480
+ "BPM=82": 450,
481
+ "TIME_DELTA=0.20833333333333334": 451,
482
+ "TIME_DELTA=0.22916666666666696": 452,
483
+ "TIME_DELTA=0.27083333333333304": 453,
484
+ "TIME_DELTA=1.739583333333334": 454,
485
+ "BPM=105": 455,
486
+ "BPM=112": 456,
487
+ "BPM=136": 457,
488
+ "BPM=150": 458,
489
+ "BPM=40": 459,
490
+ "BPM=45": 460,
491
+ "BPM=48": 461,
492
+ "BPM=50": 462,
493
+ "BPM=64": 463,
494
+ "TIME_DELTA=0.033333333333333215": 464,
495
+ "TIME_DELTA=0.04166666666666663": 465,
496
+ "TIME_DELTA=0.05208333333333348": 466,
497
+ "TIME_DELTA=0.10416666666666696": 467,
498
+ "TIME_DELTA=0.13541666666666607": 468,
499
+ "TIME_DELTA=0.14583333333333334": 469,
500
+ "TIME_DELTA=0.15833333333333321": 470,
501
+ "TIME_DELTA=0.1875": 471,
502
+ "TIME_DELTA=0.20000000000000018": 472,
503
+ "TIME_DELTA=0.26041666666666785": 473,
504
+ "TIME_DELTA=0.2708333333333333": 474,
505
+ "TIME_DELTA=0.3229166666666665": 475,
506
+ "TIME_DELTA=0.45833333333333215": 476,
507
+ "TIME_DELTA=0.4666666666666668": 477,
508
+ "TIME_DELTA=0.4791666666666667": 478,
509
+ "TIME_DELTA=0.47916666666666674": 479,
510
+ "TIME_DELTA=0.5104166666666666": 480,
511
+ "TIME_DELTA=0.5583333333333336": 481,
512
+ "TIME_DELTA=0.5625": 482,
513
+ "TIME_DELTA=0.7395833333333335": 483,
514
+ "TIME_DELTA=1.0416666666666667": 484,
515
+ "TIME_DELTA=1.34375": 485,
516
+ "TIME_DELTA=1.3958333333333333": 486,
517
+ "TIME_DELTA=1.40625": 487,
518
+ "TIME_DELTA=1.4479166666666667": 488,
519
+ "TIME_DELTA=1.4895833333333333": 489,
520
+ "TIME_DELTA=1.53125": 490,
521
+ "TIME_DELTA=1.5416666666666679": 491,
522
+ "TIME_DELTA=1.5520833333333333": 492,
523
+ "TIME_DELTA=1.5729166666666667": 493,
524
+ "TIME_DELTA=1.6041666666666667": 494,
525
+ "TIME_DELTA=1.6458333333333333": 495,
526
+ "TIME_DELTA=1.71875": 496,
527
+ "TIME_DELTA=1.75": 497,
528
+ "TIME_DELTA=1.7604166666666667": 498,
529
+ "TIME_DELTA=1.8020833333333333": 499,
530
+ "TIME_DELTA=1.8229166666666667": 500,
531
+ "TIME_DELTA=1.8541666666666667": 501,
532
+ "TIME_DELTA=1.885416666666667": 502,
533
+ "TIME_DELTA=10.385416666666666": 503,
534
+ "TIME_DELTA=2.0000000000000018": 504,
535
+ "TIME_DELTA=2.2604166666666643": 505,
536
+ "TIME_DELTA=2.260416666666666": 506,
537
+ "TIME_DELTA=2.458333333333333": 507,
538
+ "TIME_DELTA=2.770833333333334": 508,
539
+ "TIME_DELTA=3.541666666666668": 509,
540
+ "TIME_DELTA=3.6249999999999996": 510,
541
+ "TIME_DELTA=3.8125": 511,
542
+ "TIME_DELTA=3.875": 512,
543
+ "TIME_DELTA=3.9166666666666665": 513,
544
+ "TIME_DELTA=3.9791666666666665": 514,
545
+ "TIME_DELTA=4.385416666666667": 515,
546
+ "TIME_DELTA=5.0": 516,
547
+ "TIME_DELTA=5.691666666666666": 517,
548
+ "TIME_DELTA=7.65625": 518,
549
+ "TIME_SIGNATURE=3_2": 519,
550
+ "TIME_SIGNATURE=6_4": 520,
551
+ "TIME_DELTA=0.9791666666666666": 521,
552
+ "TIME_DELTA=0.9583333333333334": 522,
553
+ "TIME_DELTA=0.07500000000000107": 523,
554
+ "TIME_DELTA=0.9666666666666668": 524,
555
+ "TIME_DELTA=0.4999999999999991": 525,
556
+ "TIME_DELTA=0.020833333333333037": 526,
557
+ "NOTE_OFF=101": 527,
558
+ "NOTE_ON=101": 528,
559
+ "TIME_DELTA=3.5": 529,
560
+ "TIME_DELTA=0.3000000000000007": 530,
561
+ "TIME_DELTA=0.4999999999999998": 531,
562
+ "TIME_DELTA=1.4999999999999991": 532,
563
+ "TIME_DELTA=3.770833333333333": 533,
564
+ "TIME_DELTA=0.03125": 534,
565
+ "TIME_DELTA=0.04999999999999982": 535,
566
+ "TIME_DELTA=0.17708333333333334": 536,
567
+ "TIME_DELTA=0.23958333333333337": 537,
568
+ "TIME_DELTA=0.3333333333333339": 538,
569
+ "TIME_DELTA=0.7395833333333321": 539,
570
+ "TIME_DELTA=0.8125": 540,
571
+ "TIME_DELTA=0.8916666666666666": 541,
572
+ "TIME_DELTA=0.96875": 542,
573
+ "BPM=140": 543,
574
+ "BPM=70": 544,
575
+ "BPM=78": 545,
576
+ "NOTE_OFF=102": 546,
577
+ "NOTE_OFF=21": 547,
578
+ "NOTE_OFF=22": 548,
579
+ "NOTE_OFF=23": 549,
580
+ "NOTE_OFF=24": 550,
581
+ "NOTE_OFF=25": 551,
582
+ "NOTE_ON=102": 552,
583
+ "NOTE_ON=21": 553,
584
+ "NOTE_ON=22": 554,
585
+ "NOTE_ON=23": 555,
586
+ "NOTE_ON=24": 556,
587
+ "NOTE_ON=25": 557,
588
+ "TIME_DELTA=0.062499999999999556": 558,
589
+ "TIME_DELTA=0.07499999999999929": 559,
590
+ "TIME_DELTA=0.07499999999999996": 560,
591
+ "TIME_DELTA=0.17708333333333348": 561,
592
+ "TIME_DELTA=0.2499999999999991": 562,
593
+ "TIME_DELTA=0.2604166666666665": 563,
594
+ "TIME_DELTA=0.33333333333333337": 564,
595
+ "TIME_DELTA=0.4583333333333333": 565,
596
+ "TIME_DELTA=0.4999999999999999": 566,
597
+ "TIME_DELTA=0.49999999999999994": 567,
598
+ "TIME_DELTA=0.5000000000000001": 568,
599
+ "TIME_DELTA=0.5208333333333339": 569,
600
+ "TIME_DELTA=0.5250000000000004": 570,
601
+ "TIME_DELTA=0.6979166666666666": 571,
602
+ "TIME_DELTA=0.733333333333333": 572,
603
+ "TIME_DELTA=0.8645833333333335": 573,
604
+ "TIME_DELTA=1.0000000000000002": 574,
605
+ "TIME_DELTA=1.0000000000000004": 575,
606
+ "TIME_DELTA=1.09375": 576,
607
+ "TIME_DELTA=1.1102230246251565e-16": 577,
608
+ "TIME_DELTA=1.2604166666666679": 578,
609
+ "TIME_DELTA=1.4270833333333335": 579,
610
+ "TIME_DELTA=1.479166666666667": 580,
611
+ "TIME_DELTA=1.4999999999999998": 581,
612
+ "TIME_DELTA=2.260416666666668": 582,
613
+ "TIME_DELTA=2.5": 583,
614
+ "TIME_DELTA=3.479166666666666": 584,
615
+ "TIME_DELTA=3.9583333333333335": 585,
616
+ "TIME_DELTA=4.645833333333332": 586,
617
+ "TIME_DELTA=7.3916666666666675": 587
618
+ },
619
+ "unk_token": "[UNK]"
620
+ }
621
+ }
tokenizer_config.json ADDED
@@ -0,0 +1,7 @@
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": "<|endoftext|>",
3
+ "eos_token": "<|endoftext|>",
4
+ "name_or_path": "juancopi81/mutopia_guitar_dataset_tokenizer",
5
+ "special_tokens_map_file": "/root/.cache/huggingface/transformers/10de8e72c2dd469b19ce869baf55faa96a0363b0e5a70e2e1899b7957c0cfcaa.2aeea123cb44d5212eff0235c69e12949b8eecab1a274afa3ca271d99aeb330d",
6
+ "tokenizer_class": "PreTrainedTokenizerFast"
7
+ }