Dietmar2020 commited on
Commit
5171d65
β€’
1 Parent(s): 3f57d3d

Dietmar2020/OpenOrca-Platypus2-13B-GermanQuad

Browse files
README.md CHANGED
@@ -1,6 +1,6 @@
1
  ---
2
- license: llama2
3
- base_model: ehartford/WizardLM-1.0-Uncensored-Llama2-13b
4
  tags:
5
  - generated_from_trainer
6
  datasets:
@@ -15,7 +15,7 @@ should probably proofread and complete it, then remove this comment. -->
15
 
16
  # results
17
 
18
- This model is a fine-tuned version of [ehartford/WizardLM-1.0-Uncensored-Llama2-13b](https://huggingface.co/ehartford/WizardLM-1.0-Uncensored-Llama2-13b) on the germanquad dataset.
19
 
20
  ## Model description
21
 
 
1
  ---
2
+ license: cc-by-nc-4.0
3
+ base_model: Open-Orca/OpenOrca-Platypus2-13B
4
  tags:
5
  - generated_from_trainer
6
  datasets:
 
15
 
16
  # results
17
 
18
+ This model is a fine-tuned version of [Open-Orca/OpenOrca-Platypus2-13B](https://huggingface.co/Open-Orca/OpenOrca-Platypus2-13B) on the germanquad dataset.
19
 
20
  ## Model description
21
 
adapter_config.json CHANGED
@@ -1,6 +1,6 @@
1
  {
2
  "auto_mapping": null,
3
- "base_model_name_or_path": "ehartford/WizardLM-1.0-Uncensored-Llama2-13b",
4
  "bias": "none",
5
  "fan_in_fan_out": false,
6
  "inference_mode": true,
 
1
  {
2
  "auto_mapping": null,
3
+ "base_model_name_or_path": "Open-Orca/OpenOrca-Platypus2-13B",
4
  "bias": "none",
5
  "fan_in_fan_out": false,
6
  "inference_mode": true,
adapter_model.bin CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:c2bf9f16e089aaa56b1814c66659e9249675bad34a08074251534cb13d0048b3
3
  size 209772877
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:df9b2ff404cba8fa51dca17a1d3ddb04f9f2d04530b714a13adc5cded1e6b74b
3
  size 209772877
added_tokens.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "<|PAD|>": 32001,
3
+ "<|end_of_turn|>": 32000
4
+ }
special_tokens_map.json CHANGED
@@ -1,4 +1,8 @@
1
  {
 
 
 
 
2
  "bos_token": {
3
  "content": "<s>",
4
  "lstrip": false,
@@ -6,14 +10,8 @@
6
  "rstrip": false,
7
  "single_word": false
8
  },
9
- "eos_token": {
10
- "content": "</s>",
11
- "lstrip": false,
12
- "normalized": true,
13
- "rstrip": false,
14
- "single_word": false
15
- },
16
- "pad_token": "</s>",
17
  "unk_token": {
18
  "content": "<unk>",
19
  "lstrip": false,
 
1
  {
2
+ "additional_special_tokens": [
3
+ "<|end_of_turn|>",
4
+ "<|PAD|>"
5
+ ],
6
  "bos_token": {
7
  "content": "<s>",
8
  "lstrip": false,
 
10
  "rstrip": false,
11
  "single_word": false
12
  },
13
+ "eos_token": "<|end_of_turn|>",
14
+ "pad_token": "<|end_of_turn|>",
 
 
 
 
 
 
15
  "unk_token": {
16
  "content": "<unk>",
17
  "lstrip": false,
tokenizer.json CHANGED
@@ -1,6 +1,11 @@
1
  {
2
  "version": "1.0",
3
- "truncation": null,
 
 
 
 
 
4
  "padding": null,
5
  "added_tokens": [
6
  {
@@ -27,7 +32,25 @@
27
  "single_word": false,
28
  "lstrip": false,
29
  "rstrip": false,
30
- "normalized": true,
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
31
  "special": true
32
  }
33
  ],
@@ -93266,126 +93289,126 @@
93266
  "▁livre s",
93267
  "lu b",
93268
  "l ub",
 
93269
  "▁▁ ▁▁",
93270
- "▁▁ ▁▁▁▁",
93271
- "▁▁ ▁▁▁▁▁▁▁▁",
93272
- "▁▁ ▁▁▁▁▁",
93273
  "▁▁ ▁▁▁▁▁▁",
93274
- "▁▁ ▁▁▁▁▁▁▁▁▁▁▁▁",
93275
- "▁▁ ▁▁▁▁▁▁▁▁▁▁▁▁▁",
93276
- "▁▁ ▁▁▁▁▁▁▁▁▁▁",
93277
- "▁▁ ▁▁▁▁▁▁▁▁▁▁▁▁▁▁",
93278
- "▁▁ ▁▁▁",
93279
- "▁▁ ▁▁▁▁▁▁▁▁▁",
93280
- "▁▁ ▁▁▁▁▁▁▁",
93281
- "▁▁ ▁▁▁▁▁▁▁▁▁▁▁",
93282
- "▁▁ ▁",
93283
- "▁▁▁▁ ▁▁",
93284
  "▁▁▁▁ ▁▁▁▁",
93285
- "▁▁▁▁ ▁▁▁▁▁▁▁▁",
93286
- "▁▁▁▁ ▁▁▁▁▁",
93287
- "▁▁▁▁ ▁▁▁▁▁▁",
93288
- "▁▁▁▁ ▁▁▁▁▁▁▁▁▁▁▁▁",
93289
- "▁▁▁▁ ▁▁▁▁▁▁▁▁▁▁",
93290
- "▁▁▁▁ ▁▁▁",
93291
- "▁▁▁▁ ▁▁▁▁▁▁▁▁▁",
93292
- "▁▁▁▁ ▁▁▁▁▁▁▁",
93293
- "▁▁▁▁ ▁▁▁▁▁▁▁▁▁▁▁",
93294
  "▁▁▁▁ ▁",
93295
- "▁▁▁▁▁▁▁▁ ▁▁",
93296
- "▁▁▁▁▁▁▁▁ ▁▁▁▁",
 
 
93297
  "▁▁▁▁▁▁▁▁ ▁▁▁▁▁▁▁▁",
93298
- "▁▁▁▁▁▁▁▁ ▁▁▁▁▁",
93299
- "▁▁▁▁▁▁▁▁ ▁▁▁▁▁▁",
93300
- "▁▁▁▁▁▁▁▁ ▁▁▁",
93301
- "▁▁▁▁▁▁▁▁ ▁▁▁▁▁▁▁",
93302
- "▁▁▁▁▁▁▁▁ ▁",
93303
- "▁▁▁▁▁ ▁▁",
93304
- "▁▁▁▁▁ ▁▁▁▁",
93305
- "▁▁▁▁▁ ▁▁▁▁▁▁▁▁",
93306
- "▁▁▁▁▁ ▁▁▁▁▁",
93307
- "▁▁▁▁▁ ▁▁▁▁▁▁",
93308
- "▁▁▁▁▁ ▁▁▁▁▁▁▁▁▁▁",
93309
- "▁▁▁▁▁ ▁▁▁",
93310
- "▁▁▁▁▁ ▁▁▁▁▁▁▁▁▁",
93311
- "▁▁▁▁▁ ▁▁▁▁▁▁▁",
93312
  "▁▁▁▁▁ ▁▁▁▁▁▁▁▁▁▁▁",
93313
- "▁▁▁▁▁ ▁",
93314
- "▁▁▁▁▁▁ ▁▁",
93315
- "▁▁▁▁▁▁ ▁▁▁▁",
93316
- "▁▁▁▁▁▁ ▁▁▁▁▁▁▁▁",
93317
- "▁▁▁▁▁▁ ▁▁▁▁▁",
93318
- "▁▁▁▁▁▁ ▁▁▁▁▁▁",
93319
  "▁▁▁▁▁▁ ▁▁▁▁▁▁▁▁▁▁",
93320
- "▁▁▁▁▁▁ ▁▁▁",
93321
- "▁▁▁▁▁▁ ▁▁▁▁▁▁▁▁▁",
93322
- "▁▁▁▁▁▁ ▁▁▁▁▁▁▁",
93323
- "▁▁▁▁▁▁ ▁",
93324
- "▁▁▁▁▁▁▁▁▁▁▁▁ ▁▁",
93325
  "▁▁▁▁▁▁▁▁▁▁▁▁ ▁▁▁▁",
93326
- "▁▁▁▁▁▁▁▁▁▁▁▁ ▁▁▁",
93327
- "▁▁▁▁▁▁▁▁▁▁▁▁ ▁",
93328
- "▁▁▁▁▁▁▁▁▁▁▁▁▁ ▁▁",
93329
  "▁▁▁▁▁▁▁▁▁▁▁▁▁ ▁▁▁",
93330
- "▁▁▁▁▁▁▁▁▁▁▁▁▁ ▁",
93331
- "▁▁▁▁▁▁▁▁▁▁ ▁▁",
93332
- "▁▁▁▁▁▁▁▁▁▁ ▁▁▁▁",
93333
- "▁▁▁▁▁▁▁▁▁▁ ▁▁▁▁▁",
93334
  "▁▁▁▁▁▁▁▁▁▁ ▁▁▁▁▁▁",
93335
- "▁▁▁▁▁▁▁▁▁▁ ▁▁▁",
93336
- "▁▁▁▁▁▁▁▁▁▁ ▁",
93337
  "▁▁▁▁▁▁▁▁▁▁▁▁▁▁ ▁▁",
93338
- "▁▁▁▁▁▁▁▁▁▁▁▁▁▁ ▁",
93339
- "▁▁▁ ▁▁",
93340
- "▁▁▁ ▁▁▁▁",
93341
- "▁▁▁ ▁▁▁▁▁▁▁▁",
93342
- "▁▁▁ ▁▁▁▁▁",
93343
- "▁▁▁ ▁▁▁▁▁▁",
93344
- "▁▁▁ ▁▁▁▁▁▁▁▁▁▁▁▁",
93345
  "▁▁▁ ▁▁▁▁▁▁▁▁▁▁▁▁▁",
93346
- "▁▁▁ ▁▁▁▁▁▁▁▁▁▁",
 
 
 
 
 
 
 
93347
  "▁▁▁ ▁▁▁",
 
 
 
 
 
 
 
93348
  "▁▁▁ ▁▁▁▁▁▁▁▁▁",
93349
- "▁▁▁ ▁▁▁▁▁▁▁",
93350
- "▁▁▁ ▁▁▁▁▁▁▁▁▁▁▁",
93351
- "▁▁▁ ▁",
93352
- "▁▁▁▁▁▁▁▁▁ ▁▁",
93353
- "▁▁▁▁▁▁▁▁▁ ▁▁▁▁",
93354
- "▁▁▁▁▁▁▁▁▁ ▁▁▁▁▁",
93355
- "▁▁▁▁▁▁▁▁▁ ▁▁▁▁▁▁",
93356
  "▁▁▁▁▁▁▁▁▁ ▁▁▁",
93357
- "▁▁▁▁▁▁▁▁▁ ▁▁▁▁▁▁▁",
93358
- "▁▁▁▁▁▁▁▁▁ ▁",
93359
- "▁▁▁▁▁▁▁ ▁▁",
93360
- "▁▁▁▁▁▁▁ ▁▁▁▁",
93361
- "▁▁▁▁▁▁▁ ▁▁▁▁▁▁▁▁",
93362
  "▁▁▁▁▁▁▁ ▁▁▁▁▁",
 
 
 
 
 
 
 
 
 
 
 
93363
  "▁▁▁▁▁▁▁ ▁▁▁▁▁▁",
 
 
 
 
 
 
 
 
 
93364
  "▁▁▁▁▁▁▁ ▁▁▁",
93365
- "▁▁▁▁▁▁▁ ▁▁▁▁▁▁▁▁▁",
 
 
 
 
 
 
 
 
 
 
93366
  "▁▁▁▁▁▁▁ ▁▁▁▁▁▁▁",
93367
- "▁▁▁▁▁▁▁ ▁",
93368
- "▁▁▁▁▁▁▁▁▁▁▁ ▁▁",
93369
- "▁▁▁▁▁▁▁▁▁▁▁ ▁▁▁▁",
93370
- "▁▁▁▁▁▁▁▁▁▁▁ ▁▁▁▁▁",
93371
  "▁▁▁▁▁▁▁▁▁▁▁ ▁▁▁",
93372
- "▁▁▁▁▁▁▁▁▁▁▁ ▁",
93373
- "▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁ ▁",
93374
  "▁ ▁▁",
93375
- "▁ ▁▁▁▁",
 
 
 
 
 
 
93376
  "▁ ▁▁▁▁▁▁▁▁",
93377
- "▁ ▁▁▁▁▁",
 
 
 
 
93378
  "▁ ▁▁▁▁▁▁",
93379
- "▁ ▁▁▁▁▁▁▁▁▁▁▁▁",
93380
- "▁ ▁▁▁▁▁▁▁▁▁▁▁▁▁",
 
 
 
 
 
 
 
93381
  "▁ ▁▁▁▁▁▁▁▁▁▁",
93382
- "▁ ▁▁▁▁▁▁▁▁▁▁▁▁▁▁",
93383
- "▁ ▁▁▁",
93384
- "▁ ▁▁▁▁▁▁▁▁▁",
93385
- "▁ ▁▁▁▁▁▁▁",
93386
- "▁ ▁▁▁▁▁▁▁▁▁▁▁",
93387
- "▁ ▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁",
93388
- "▁ ▁"
 
 
 
 
 
 
 
93389
  ]
93390
  }
93391
  }
 
1
  {
2
  "version": "1.0",
3
+ "truncation": {
4
+ "direction": "Right",
5
+ "max_length": 1024,
6
+ "strategy": "LongestFirst",
7
+ "stride": 0
8
+ },
9
  "padding": null,
10
  "added_tokens": [
11
  {
 
32
  "single_word": false,
33
  "lstrip": false,
34
  "rstrip": false,
35
+ "normalized": false,
36
+ "special": true
37
+ },
38
+ {
39
+ "id": 32000,
40
+ "content": "<|end_of_turn|>",
41
+ "single_word": false,
42
+ "lstrip": false,
43
+ "rstrip": false,
44
+ "normalized": false,
45
+ "special": true
46
+ },
47
+ {
48
+ "id": 32001,
49
+ "content": "<|PAD|>",
50
+ "single_word": false,
51
+ "lstrip": false,
52
+ "rstrip": false,
53
+ "normalized": false,
54
  "special": true
55
  }
56
  ],
 
93289
  "▁livre s",
93290
  "lu b",
93291
  "l ub",
93292
+ "▁ ▁",
93293
  "▁▁ ▁▁",
93294
+ "▁▁▁ ▁",
93295
+ "▁ ▁▁▁",
 
93296
  "▁▁ ▁▁▁▁▁▁",
 
 
 
 
 
 
 
 
 
 
93297
  "▁▁▁▁ ▁▁▁▁",
93298
+ "▁▁▁▁▁ ▁▁▁",
93299
+ "▁▁▁▁▁▁ ▁▁",
93300
+ "▁▁▁ ▁▁▁▁▁",
93301
+ "▁▁▁▁▁▁▁ ▁",
93302
+ "▁ ▁▁▁▁▁▁▁",
93303
+ "▁▁ ▁▁▁",
 
 
 
93304
  "▁▁▁▁ ▁",
93305
+ "▁▁▁ ▁▁",
93306
+ "▁ ▁▁▁▁",
93307
+ "▁▁ ▁▁▁▁▁▁▁▁▁▁▁▁▁▁",
93308
+ "▁▁▁▁ ▁▁▁▁▁▁▁▁▁▁▁▁",
93309
  "▁▁▁▁▁▁▁▁ ▁▁▁▁▁▁▁▁",
 
 
 
 
 
 
 
 
 
 
 
 
 
 
93310
  "▁▁▁▁▁ ▁▁▁▁▁▁▁▁▁▁▁",
 
 
 
 
 
 
93311
  "▁▁▁▁▁▁ ▁▁▁▁▁▁▁▁▁▁",
 
 
 
 
 
93312
  "▁▁▁▁▁▁▁▁▁▁▁▁ ▁▁▁▁",
 
 
 
93313
  "▁▁▁▁▁▁▁▁▁▁▁▁▁ ▁▁▁",
 
 
 
 
93314
  "▁▁▁▁▁▁▁▁▁▁ ▁▁▁▁▁▁",
 
 
93315
  "▁▁▁▁▁▁▁▁▁▁▁▁▁▁ ▁▁",
 
 
 
 
 
 
 
93316
  "▁▁▁ ▁▁▁▁▁▁▁▁▁▁▁▁▁",
93317
+ "▁▁▁▁▁▁▁▁▁ ▁▁▁▁▁▁▁",
93318
+ "▁▁▁▁▁▁▁ ▁▁▁▁▁▁▁▁▁",
93319
+ "▁▁▁▁▁▁▁▁▁▁▁ ▁▁▁▁▁",
93320
+ "▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁ ▁",
93321
+ "▁ ▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁",
93322
+ "▁▁ ▁▁▁▁",
93323
+ "▁▁▁▁ ▁▁",
93324
+ "▁▁▁▁▁ ▁",
93325
  "▁▁▁ ▁▁▁",
93326
+ "▁ ▁▁▁▁▁",
93327
+ "▁▁ ▁▁▁▁▁▁▁▁▁▁",
93328
+ "▁▁▁▁ ▁▁▁▁▁▁▁▁",
93329
+ "▁▁▁▁▁▁▁▁ ▁▁▁▁",
93330
+ "▁▁▁▁▁ ▁▁▁▁▁▁▁",
93331
+ "▁▁▁▁▁▁ ▁▁▁▁▁▁",
93332
+ "▁▁▁▁▁▁▁▁▁▁ ▁▁",
93333
  "▁▁▁ ▁▁▁▁▁▁▁▁▁",
 
 
 
 
 
 
 
93334
  "▁▁▁▁▁▁▁▁▁ ▁▁▁",
 
 
 
 
 
93335
  "▁▁▁▁▁▁▁ ▁▁▁▁▁",
93336
+ "▁▁▁▁▁▁▁▁▁▁▁ ▁",
93337
+ "▁ ▁▁▁▁▁▁▁▁▁▁▁",
93338
+ "▁▁ ▁▁▁▁▁▁▁▁▁▁▁",
93339
+ "▁▁▁▁ ▁▁▁▁▁▁▁▁▁",
93340
+ "▁▁▁▁▁▁▁▁ ▁▁▁▁▁",
93341
+ "▁▁▁▁▁ ▁▁▁▁▁▁▁▁",
93342
+ "▁▁▁▁▁▁ ▁▁▁▁▁▁▁",
93343
+ "▁▁▁▁▁▁▁▁▁▁▁▁ ▁",
93344
+ "▁▁▁▁▁▁▁▁▁▁ ▁▁▁",
93345
+ "▁▁▁ ▁▁▁▁▁▁▁▁▁▁",
93346
+ "▁▁▁▁▁▁▁▁▁ ▁▁▁▁",
93347
  "▁▁▁▁▁▁▁ ▁▁▁▁▁▁",
93348
+ "▁▁▁▁▁▁▁▁▁▁▁ ▁▁",
93349
+ "▁ ▁▁▁▁▁▁▁▁▁▁▁▁",
93350
+ "▁▁ ▁▁▁▁▁▁▁▁",
93351
+ "▁▁▁▁ ▁▁▁▁▁▁",
93352
+ "▁▁▁▁▁▁▁▁ ▁▁",
93353
+ "▁▁▁▁▁ ▁▁▁▁▁",
93354
+ "▁▁▁▁▁▁ ▁▁▁▁",
93355
+ "▁▁▁ ▁▁▁▁▁▁▁",
93356
+ "▁▁▁▁▁▁▁▁▁ ▁",
93357
  "▁▁▁▁▁▁▁ ▁▁▁",
93358
+ "▁ ▁▁▁▁▁▁▁▁▁",
93359
+ "▁▁ ▁▁▁▁▁▁▁▁▁▁▁▁",
93360
+ "▁▁▁▁ ▁▁▁▁▁▁▁▁▁▁",
93361
+ "▁▁▁▁▁▁▁▁ ▁▁▁▁▁▁",
93362
+ "▁▁▁▁▁ ▁▁▁▁▁▁▁▁▁",
93363
+ "▁▁▁▁▁▁ ▁▁▁▁▁▁▁▁",
93364
+ "▁▁▁▁▁▁▁▁▁▁▁▁ ▁▁",
93365
+ "▁▁▁▁▁▁▁▁▁▁▁▁▁ ▁",
93366
+ "▁▁▁▁▁▁▁▁▁▁ ▁▁▁▁",
93367
+ "▁▁▁ ▁▁▁▁▁▁▁▁▁▁▁",
93368
+ "▁▁▁▁▁▁▁▁▁ ▁▁▁▁▁",
93369
  "▁▁▁▁▁▁▁ ▁▁▁▁▁▁▁",
 
 
 
 
93370
  "▁▁▁▁▁▁▁▁▁▁▁ ▁▁▁",
93371
+ "▁ ▁▁▁▁▁▁▁▁▁▁▁▁▁",
93372
+ "▁▁ ▁",
93373
  "▁ ▁▁",
93374
+ "▁▁ ▁▁▁▁▁▁▁",
93375
+ "▁▁▁▁ ▁▁▁▁▁",
93376
+ "▁▁▁▁▁▁▁▁ ▁",
93377
+ "▁▁▁▁▁ ▁▁▁▁",
93378
+ "▁▁▁▁▁▁ ▁▁▁",
93379
+ "▁▁▁ ▁▁▁▁▁▁",
93380
+ "▁▁▁▁▁▁▁ ▁▁",
93381
  "▁ ▁▁▁▁▁▁▁▁",
93382
+ "▁▁ ▁▁▁▁▁",
93383
+ "▁▁▁▁ ▁▁▁",
93384
+ "▁▁▁▁▁ ▁▁",
93385
+ "▁▁▁▁▁▁ ▁",
93386
+ "▁▁▁ ▁▁▁▁",
93387
  "▁ ▁▁▁▁▁▁",
93388
+ "▁▁ ▁▁▁▁▁▁▁▁▁",
93389
+ "▁▁▁▁ ▁▁▁▁▁▁▁",
93390
+ "▁▁▁▁▁▁▁▁ ▁▁▁",
93391
+ "▁▁▁▁▁ ▁▁▁▁▁▁",
93392
+ "▁▁▁▁▁▁ ▁▁▁▁▁",
93393
+ "▁▁▁▁▁▁▁▁▁▁ ▁",
93394
+ "▁▁▁ ▁▁▁▁▁▁▁▁",
93395
+ "▁▁▁▁▁▁▁▁▁ ▁▁",
93396
+ "▁▁▁▁▁▁▁ ▁▁▁▁",
93397
  "▁ ▁▁▁▁▁▁▁▁▁▁",
93398
+ "▁▁ ▁▁▁▁▁▁▁▁▁▁▁▁▁",
93399
+ "▁▁▁▁ ▁▁▁▁▁▁▁▁▁▁▁",
93400
+ "▁▁▁▁▁▁▁▁ ▁▁▁▁▁▁▁",
93401
+ "▁▁▁▁▁ ▁▁▁▁▁▁▁��▁▁",
93402
+ "▁▁▁▁▁▁ ▁▁▁▁▁▁▁▁▁",
93403
+ "▁▁▁▁▁▁▁▁▁▁▁▁ ▁▁▁",
93404
+ "▁▁▁▁▁▁▁▁▁▁▁▁▁ ▁▁",
93405
+ "▁▁▁▁▁▁▁▁▁▁ ▁▁▁▁▁",
93406
+ "▁▁▁▁▁▁▁▁▁▁▁▁▁▁ ▁",
93407
+ "▁▁▁ ▁▁▁▁▁▁▁▁▁▁▁▁",
93408
+ "▁▁▁▁▁▁▁▁▁ ▁▁▁▁▁▁",
93409
+ "▁▁▁▁▁▁▁ ▁▁▁▁▁▁▁▁",
93410
+ "▁▁▁▁▁▁▁▁▁▁▁ ▁▁▁▁",
93411
+ "▁ ▁▁▁▁▁▁▁▁▁▁▁▁▁▁"
93412
  ]
93413
  }
93414
  }
tokenizer_config.json CHANGED
@@ -16,6 +16,7 @@
16
  "rstrip": false,
17
  "single_word": false
18
  },
 
19
  "model_max_length": 1000000000000000019884624838656,
20
  "pad_token": null,
21
  "sp_model_kwargs": {},
 
16
  "rstrip": false,
17
  "single_word": false
18
  },
19
+ "legacy": true,
20
  "model_max_length": 1000000000000000019884624838656,
21
  "pad_token": null,
22
  "sp_model_kwargs": {},
training_args.bin CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:5596218a40035cd9c1fdd3a574057767ecc105ce275c2a8463de1e965d9d59d8
3
  size 3963
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:b994affc0114d87ac9fd63600704aff77ab4a605ba704f15f7dfd89e5ecb2692
3
  size 3963