yhavinga commited on
Commit
59c5de1
1 Parent(s): 89c11e9
README.md ADDED
@@ -0,0 +1,68 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - nl
4
+ datasets:
5
+ - yhavinga/mc4_nl_cleaned
6
+ - yhavinga/cnn_dailymail_dutch
7
+ tags:
8
+ - summarization
9
+ - longt5
10
+ - seq2seq
11
+ license: apache-2.0
12
+ pipeline_tag: summarization
13
+ widget:
14
+ - text: "Het Van Goghmuseum in Amsterdam heeft vier kostbare prenten verworven van\
15
+ \ Mary Cassatt, de Amerikaanse impressionistische kunstenaar en tijdgenoot van\
16
+ \ Vincent van Gogh. Dat heeft het museum woensdagmiddag op een persconferentie\
17
+ \ bekendgemaakt. Het gaat om drie grote kleurenetsen en een zwart-wit litho met\
18
+ \ voorstellingen van vrouwen. Voor deze prenten, die afkomstig zijn van een Amerikaanse\
19
+ \ verzamelaar, betaalde het museum ruim 1,4 miljoen euro. Drie grote fondsen en\
20
+ \ een aantal particulieren hebben samen de aankoopsom beschikbaar gesteld. Mary\
21
+ \ Stevenson Cassatt (1844-1926) woonde en werkte lange tijd in Frankrijk. Ze staat\
22
+ \ met haar impressionistische schilderijen en tekeningen te boek als een van de\
23
+ \ vernieuwers van de Parijse kunstwereld in de late negentiende eeuw. Het Van\
24
+ \ Goghmuseum rekent haar prenten \u201Etot het mooiste wat op grafisch gebied\
25
+ \ in het fin de si\xE8cle is geproduceerd\u201D. De drie aangekochte kleurenetsen\
26
+ \ \u2013 Het doorpassen, De brief en Badende vrouw \u2013 komen uit een serie\
27
+ \ van tien waarmee Cassatt haar naam als (prent)kunstenaar definitief vestigde.\
28
+ \ Ze maakte de etsen na een bezoek in 1890 aan een tentoonstelling van Japanse\
29
+ \ prenten in Parijs. Over die expositie schreef de Amerikaanse aan haar vriendin\
30
+ \ Berthe Morisot, een andere vrouwelijke impressionist: \u201EWe kunnen de Japanse\
31
+ \ prenten in de Beaux-Arts gaan bekijken. Echt, die mag je niet missen. Als je\
32
+ \ kleurenprenten wilt maken, is er niets mooiers voorstelbaar. Ik droom ervan\
33
+ \ en denk nergens anders meer aan dan aan kleur op koper."
34
+ - text: "Afgelopen zaterdagochtend werden Hunga Tonga en Hunga Hapai opnieuw twee\
35
+ \ aparte eilanden toen de vulkaan met een hevige explosie uitbarstte. De aanloop\
36
+ \ tot de uitbarsting begon al eind vorig jaar met kleinere explosies. Begin januari\
37
+ \ nam de activiteit af en dachten geologen dat de vulkaan tot rust was gekomen.\
38
+ \ Toch barstte hij afgelopen zaterdag opnieuw uit, veel heviger dan de uitbarstingen\
39
+ \ ervoor. Vl\xE1k voor deze explosie stortte het kilometerslange verbindingsstuk\
40
+ \ in en verdween onder het water. De eruptie duurde acht minuten. De wolk van\
41
+ \ as en giftige gasdeeltjes, zoals zwaveloxide, die daarbij vrijkwam, reikte tot\
42
+ \ dertig kilometer hoogte en was zo\u2019n vijfhonderd kilometer breed. Ter vergelijking:\
43
+ \ de pluimen uit de recente vulkaanuitbarsting op La Palma reikten maximaal zo\u2019\
44
+ n vijf kilometer hoog. De hoofdstad van Tonga, vijfenzestig kilometer verderop\
45
+ \ is bedekt met een dikke laag as. Dat heeft bijvoorbeeld gevolgen voor de veiligheid\
46
+ \ van het drinkwater op Tonga. De uitbarsting van de onderzeese vulkaan in de\
47
+ \ eilandstaat Tonga afgelopen zaterdag was bijzonder heftig. De eruptie veroorzaakte\
48
+ \ een tsunami die reikte van Nieuw-Zeeland tot de Verenigde Staten en in Nederland\
49
+ \ ging de luchtdruk omhoog. Geologen verwachten niet dat de vulkaan op Tonga voor\
50
+ \ een lange wereldwijde afkoeling zorgt, zoals bij andere hevige vulkaanuitbarstingen\
51
+ \ het geval is geweest. De vulkaan ligt onder water tussen de onbewoonde eilandjes\
52
+ \ Hunga Tonga (0,39 vierkante kilometer) en Hunga Ha\u2019apai (0,65 vierkante\
53
+ \ kilometer). Magma dat bij kleinere uitbarsting in 2009 en 2014 omhoog kwam,\
54
+ \ koelde af en vormde een verbindingsstuk tussen de twee eilanden in. Een explosie\
55
+ \ van een onderwatervulkaan als die bij Tonga is heftiger dan bijvoorbeeld die\
56
+ \ uitbarsting op La Palma. \u201EDat komt doordat het vulkanisme hier veroorzaakt\
57
+ \ wordt door subductie: de Pacifische plaat zinkt onder Tonga de aardmantel in\
58
+ \ en neemt water mee omlaag\u201D, zegt hoogleraar paleogeografie Douwe van Hinsbergen\
59
+ \ van de Universiteit Utrecht. \u201EDit water komt met magma als gas, als waterdamp,\
60
+ \ mee omhoog. Dat voert de druk onder de aardkost enorm op. Arwen Deuss, geowetenschapper\
61
+ \ aan de Universiteit Utrecht, vergelijkt het met een fles cola. \u201EWanneer\
62
+ \ je een fles cola schudt, zal het gas er met veel geweld uitkomen. Dat is waarschijnlijk\
63
+ \ wat er gebeurd is op Tonga, maar we weten het niet precies.\u201D"
64
+ ---
65
+ # long-t5-tglobal-small-dutch-cnn-bf16-test
66
+
67
+
68
+ See logs at https://wandb.ai/yepster/long-t5-tglobal-small-dutch-cnn/runs/1qmed8ll?workspace=user-yepster
config.json ADDED
@@ -0,0 +1,40 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "./",
3
+ "architectures": [
4
+ "LongT5ForConditionalGeneration"
5
+ ],
6
+ "d_ff": 1024,
7
+ "d_kv": 64,
8
+ "d_model": 512,
9
+ "decoder_start_token_id": 0,
10
+ "dense_act_fn": "gelu_new",
11
+ "dropout_rate": 0.1,
12
+ "encoder_attention_type": "transient-global",
13
+ "eos_token_id": 1,
14
+ "feed_forward_proj": "gated-gelu",
15
+ "global_block_size": 16,
16
+ "initializer_factor": 1.0,
17
+ "is_encoder_decoder": true,
18
+ "is_gated_act": true,
19
+ "layer_norm_epsilon": 1e-06,
20
+ "local_radius": 127,
21
+ "max_length": 142,
22
+ "min_length": 75,
23
+ "model_type": "longt5",
24
+ "n_positions": 4096,
25
+ "no_repeat_ngram_size": 3,
26
+ "num_beam_groups": 3,
27
+ "num_beams": 6,
28
+ "num_decoder_layers": 8,
29
+ "num_heads": 6,
30
+ "num_layers": 8,
31
+ "output_past": true,
32
+ "pad_token_id": 0,
33
+ "relative_attention_max_distance": 128,
34
+ "relative_attention_num_buckets": 32,
35
+ "tie_word_embeddings": false,
36
+ "torch_dtype": "float32",
37
+ "transformers_version": "4.21.1",
38
+ "use_cache": true,
39
+ "vocab_size": 32103
40
+ }
events.out.tfevents.1660904114.t1v-n-0134e280-w-0.237053.0.v2 ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:0cb61d99ba4d817de0a61f2c819a9c9effe440942b7836625d6fbf0b0d4f4f20
3
+ size 120644
flax_model.msgpack ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:368ca016c4f93cf84e0939b3ac4722b0c0c981e01bcac107c03e1b02151b028a
3
+ size 307768188
pytorch_model.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:56294c173d19ae90d0f82627089e8089b139c037a9bcf3483fa8aca0e830f36b
3
+ size 307824179
special_tokens_map.json ADDED
@@ -0,0 +1,107 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "additional_special_tokens": [
3
+ "<extra_id_0>",
4
+ "<extra_id_1>",
5
+ "<extra_id_2>",
6
+ "<extra_id_3>",
7
+ "<extra_id_4>",
8
+ "<extra_id_5>",
9
+ "<extra_id_6>",
10
+ "<extra_id_7>",
11
+ "<extra_id_8>",
12
+ "<extra_id_9>",
13
+ "<extra_id_10>",
14
+ "<extra_id_11>",
15
+ "<extra_id_12>",
16
+ "<extra_id_13>",
17
+ "<extra_id_14>",
18
+ "<extra_id_15>",
19
+ "<extra_id_16>",
20
+ "<extra_id_17>",
21
+ "<extra_id_18>",
22
+ "<extra_id_19>",
23
+ "<extra_id_20>",
24
+ "<extra_id_21>",
25
+ "<extra_id_22>",
26
+ "<extra_id_23>",
27
+ "<extra_id_24>",
28
+ "<extra_id_25>",
29
+ "<extra_id_26>",
30
+ "<extra_id_27>",
31
+ "<extra_id_28>",
32
+ "<extra_id_29>",
33
+ "<extra_id_30>",
34
+ "<extra_id_31>",
35
+ "<extra_id_32>",
36
+ "<extra_id_33>",
37
+ "<extra_id_34>",
38
+ "<extra_id_35>",
39
+ "<extra_id_36>",
40
+ "<extra_id_37>",
41
+ "<extra_id_38>",
42
+ "<extra_id_39>",
43
+ "<extra_id_40>",
44
+ "<extra_id_41>",
45
+ "<extra_id_42>",
46
+ "<extra_id_43>",
47
+ "<extra_id_44>",
48
+ "<extra_id_45>",
49
+ "<extra_id_46>",
50
+ "<extra_id_47>",
51
+ "<extra_id_48>",
52
+ "<extra_id_49>",
53
+ "<extra_id_50>",
54
+ "<extra_id_51>",
55
+ "<extra_id_52>",
56
+ "<extra_id_53>",
57
+ "<extra_id_54>",
58
+ "<extra_id_55>",
59
+ "<extra_id_56>",
60
+ "<extra_id_57>",
61
+ "<extra_id_58>",
62
+ "<extra_id_59>",
63
+ "<extra_id_60>",
64
+ "<extra_id_61>",
65
+ "<extra_id_62>",
66
+ "<extra_id_63>",
67
+ "<extra_id_64>",
68
+ "<extra_id_65>",
69
+ "<extra_id_66>",
70
+ "<extra_id_67>",
71
+ "<extra_id_68>",
72
+ "<extra_id_69>",
73
+ "<extra_id_70>",
74
+ "<extra_id_71>",
75
+ "<extra_id_72>",
76
+ "<extra_id_73>",
77
+ "<extra_id_74>",
78
+ "<extra_id_75>",
79
+ "<extra_id_76>",
80
+ "<extra_id_77>",
81
+ "<extra_id_78>",
82
+ "<extra_id_79>",
83
+ "<extra_id_80>",
84
+ "<extra_id_81>",
85
+ "<extra_id_82>",
86
+ "<extra_id_83>",
87
+ "<extra_id_84>",
88
+ "<extra_id_85>",
89
+ "<extra_id_86>",
90
+ "<extra_id_87>",
91
+ "<extra_id_88>",
92
+ "<extra_id_89>",
93
+ "<extra_id_90>",
94
+ "<extra_id_91>",
95
+ "<extra_id_92>",
96
+ "<extra_id_93>",
97
+ "<extra_id_94>",
98
+ "<extra_id_95>",
99
+ "<extra_id_96>",
100
+ "<extra_id_97>",
101
+ "<extra_id_98>",
102
+ "<extra_id_99>"
103
+ ],
104
+ "eos_token": "</s>",
105
+ "pad_token": "<pad>",
106
+ "unk_token": "<unk>"
107
+ }
test_results.json ADDED
@@ -0,0 +1,7 @@
 
 
 
 
 
 
 
 
1
+ {
2
+ "test_gen_len": 98.8477,
3
+ "test_rouge1": 30.9758,
4
+ "test_rouge2": 11.8096,
5
+ "test_rougeL": 22.3486,
6
+ "test_rougeLsum": 27.417
7
+ }
tokenizer.json ADDED
The diff for this file is too large to render. See raw diff
 
tokenizer_config.json ADDED
@@ -0,0 +1,111 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "additional_special_tokens": [
3
+ "<extra_id_0>",
4
+ "<extra_id_1>",
5
+ "<extra_id_2>",
6
+ "<extra_id_3>",
7
+ "<extra_id_4>",
8
+ "<extra_id_5>",
9
+ "<extra_id_6>",
10
+ "<extra_id_7>",
11
+ "<extra_id_8>",
12
+ "<extra_id_9>",
13
+ "<extra_id_10>",
14
+ "<extra_id_11>",
15
+ "<extra_id_12>",
16
+ "<extra_id_13>",
17
+ "<extra_id_14>",
18
+ "<extra_id_15>",
19
+ "<extra_id_16>",
20
+ "<extra_id_17>",
21
+ "<extra_id_18>",
22
+ "<extra_id_19>",
23
+ "<extra_id_20>",
24
+ "<extra_id_21>",
25
+ "<extra_id_22>",
26
+ "<extra_id_23>",
27
+ "<extra_id_24>",
28
+ "<extra_id_25>",
29
+ "<extra_id_26>",
30
+ "<extra_id_27>",
31
+ "<extra_id_28>",
32
+ "<extra_id_29>",
33
+ "<extra_id_30>",
34
+ "<extra_id_31>",
35
+ "<extra_id_32>",
36
+ "<extra_id_33>",
37
+ "<extra_id_34>",
38
+ "<extra_id_35>",
39
+ "<extra_id_36>",
40
+ "<extra_id_37>",
41
+ "<extra_id_38>",
42
+ "<extra_id_39>",
43
+ "<extra_id_40>",
44
+ "<extra_id_41>",
45
+ "<extra_id_42>",
46
+ "<extra_id_43>",
47
+ "<extra_id_44>",
48
+ "<extra_id_45>",
49
+ "<extra_id_46>",
50
+ "<extra_id_47>",
51
+ "<extra_id_48>",
52
+ "<extra_id_49>",
53
+ "<extra_id_50>",
54
+ "<extra_id_51>",
55
+ "<extra_id_52>",
56
+ "<extra_id_53>",
57
+ "<extra_id_54>",
58
+ "<extra_id_55>",
59
+ "<extra_id_56>",
60
+ "<extra_id_57>",
61
+ "<extra_id_58>",
62
+ "<extra_id_59>",
63
+ "<extra_id_60>",
64
+ "<extra_id_61>",
65
+ "<extra_id_62>",
66
+ "<extra_id_63>",
67
+ "<extra_id_64>",
68
+ "<extra_id_65>",
69
+ "<extra_id_66>",
70
+ "<extra_id_67>",
71
+ "<extra_id_68>",
72
+ "<extra_id_69>",
73
+ "<extra_id_70>",
74
+ "<extra_id_71>",
75
+ "<extra_id_72>",
76
+ "<extra_id_73>",
77
+ "<extra_id_74>",
78
+ "<extra_id_75>",
79
+ "<extra_id_76>",
80
+ "<extra_id_77>",
81
+ "<extra_id_78>",
82
+ "<extra_id_79>",
83
+ "<extra_id_80>",
84
+ "<extra_id_81>",
85
+ "<extra_id_82>",
86
+ "<extra_id_83>",
87
+ "<extra_id_84>",
88
+ "<extra_id_85>",
89
+ "<extra_id_86>",
90
+ "<extra_id_87>",
91
+ "<extra_id_88>",
92
+ "<extra_id_89>",
93
+ "<extra_id_90>",
94
+ "<extra_id_91>",
95
+ "<extra_id_92>",
96
+ "<extra_id_93>",
97
+ "<extra_id_94>",
98
+ "<extra_id_95>",
99
+ "<extra_id_96>",
100
+ "<extra_id_97>",
101
+ "<extra_id_98>",
102
+ "<extra_id_99>"
103
+ ],
104
+ "eos_token": "</s>",
105
+ "extra_ids": 100,
106
+ "name_or_path": "yhavinga/long-t5-tglobal-small-dutch-english",
107
+ "pad_token": "<pad>",
108
+ "special_tokens_map_file": null,
109
+ "tokenizer_class": "T5Tokenizer",
110
+ "unk_token": "<unk>"
111
+ }
training_state.json ADDED
@@ -0,0 +1 @@
 
 
1
+ {"step": 8808}