LeoCordoba commited on
Commit
ab302c6
1 Parent(s): c0b135e

commit files to HF hub

Browse files
README.md ADDED
@@ -0,0 +1,61 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+
2
+ ---
3
+ language: es
4
+ tags:
5
+ - summarization
6
+ - spanish
7
+ - beto2beto
8
+ - encoder-decoder
9
+ license: apache-2.0
10
+ datasets:
11
+ - ccnews-titles-es
12
+ model-index:
13
+ - name: beto2beto-ccnews-titles-es
14
+ results:
15
+ - task:
16
+ name: Abstractive Text Summarization
17
+ type: abstractive-text-summarization
18
+ dataset:
19
+ name: "CCNEWS-titles (Spanish)"
20
+
21
+ ---
22
+ ## beto2beto-ccnews-titles-es
23
+
24
+ widget:
25
+
26
+ - text: "La chocotorta, el tradicional y práctico antojo dulce de los argentinos, fue elegida como el mejor postre del mundo por críticos de restaurants internacionales, a casi 40 años de su creación. El ránking Taste Atlas ubicó primero en su lista al postre insignia local de galletitas, queso crema y dulce de leche, por delante del helado de pistacho italiano y la tarta alemana de manzana. “Este postre argentino sin hornear fue influenciado por la cocina italiana y se inspiró en el famoso tiramisú italiano. Está elaborado con tres ingredientes básicos argentinos: galletas de chocolate, dulce de leche y queso crema”, explica la página web que exhorta a los turistas de todo el mundo a que prueben la chocotorta. En la votación, superó también a los waffles belgas y el zserbó húngaro. A nivel local le sigue el alfajor, con 4,2 puntos contra los 4,7 de la torta. En el texto que acompaña al listón dorado de “postre número uno“, los expertos enseñan además cómo se hacen las chocotortas, paso por paso. “Las galletas se ablandan en leche y se cubren con una combinación de queso crema y dulce de leche. Las formas de la chocotorta pueden variar, mientras que las galletas se pueden remojar con leche con chocolate, café o incluso licor de café”, detallan. Por último, adjudican su creación a una “campaña de márketing” diseñada para promover las galletitas icónicas que le dan su nombre. La chocotorta, infaltable en los cumpleaños argentinos, fue creada en 1982 por una creativa de las agencias más importantes del país, Marité Mabragaña."
27
+
28
+ ---
29
+ ## Hyperparameters
30
+
31
+
32
+ {
33
+
34
+ "num_train_epochs": 3,
35
+
36
+ "seed": 7,
37
+
38
+ "summary_column": "output_text",
39
+
40
+ "text_column": "text",
41
+
42
+ "encoder_max_length" : 512,
43
+
44
+ "decoder_max_length" :36,
45
+
46
+ "batch_size" : 256
47
+
48
+ }
49
+ ## Usage
50
+
51
+ ## Results
52
+ | key | value |
53
+ | --- | ----- |
54
+ | eval_rouge1 | |
55
+ | eval_rouge2 | |
56
+ | eval_rougeL | |
57
+ | eval_rougeLsum | |
58
+ | test_rouge1 | |
59
+ | test_rouge2 | |
60
+ | test_rougeL | |
61
+ | test_rougeLsum | |
config.json ADDED
@@ -0,0 +1,154 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "../bert2bert/v3-finales/checkpoint-68000",
3
+ "architectures": [
4
+ "EncoderDecoderModel"
5
+ ],
6
+ "decoder": {
7
+ "_name_or_path": "dccuchile/bert-base-spanish-wwm-uncased",
8
+ "add_cross_attention": true,
9
+ "architectures": [
10
+ "BertForMaskedLM"
11
+ ],
12
+ "attention_probs_dropout_prob": 0.1,
13
+ "bad_words_ids": null,
14
+ "bos_token_id": null,
15
+ "chunk_size_feed_forward": 0,
16
+ "decoder_start_token_id": null,
17
+ "diversity_penalty": 0.0,
18
+ "do_sample": false,
19
+ "early_stopping": false,
20
+ "eos_token_id": null,
21
+ "finetuning_task": null,
22
+ "gradient_checkpointing": false,
23
+ "hidden_act": "gelu",
24
+ "hidden_dropout_prob": 0.1,
25
+ "hidden_size": 768,
26
+ "id2label": {
27
+ "0": "LABEL_0",
28
+ "1": "LABEL_1"
29
+ },
30
+ "initializer_range": 0.02,
31
+ "intermediate_size": 3072,
32
+ "is_decoder": true,
33
+ "is_encoder_decoder": false,
34
+ "label2id": {
35
+ "LABEL_0": 0,
36
+ "LABEL_1": 1
37
+ },
38
+ "layer_norm_eps": 1e-12,
39
+ "length_penalty": 1.0,
40
+ "max_length": 20,
41
+ "max_position_embeddings": 512,
42
+ "min_length": 0,
43
+ "model_type": "bert",
44
+ "no_repeat_ngram_size": 0,
45
+ "num_attention_heads": 12,
46
+ "num_beam_groups": 1,
47
+ "num_beams": 1,
48
+ "num_hidden_layers": 12,
49
+ "num_return_sequences": 1,
50
+ "output_attentions": false,
51
+ "output_hidden_states": false,
52
+ "output_past": true,
53
+ "output_scores": false,
54
+ "pad_token_id": 1,
55
+ "position_embedding_type": "absolute",
56
+ "prefix": null,
57
+ "pruned_heads": {},
58
+ "repetition_penalty": 1.0,
59
+ "return_dict": true,
60
+ "return_dict_in_generate": false,
61
+ "sep_token_id": null,
62
+ "task_specific_params": null,
63
+ "temperature": 1.0,
64
+ "tie_encoder_decoder": false,
65
+ "tie_word_embeddings": true,
66
+ "tokenizer_class": null,
67
+ "top_k": 50,
68
+ "top_p": 1.0,
69
+ "torchscript": false,
70
+ "transformers_version": "4.2.2",
71
+ "type_vocab_size": 2,
72
+ "use_bfloat16": false,
73
+ "use_cache": true,
74
+ "vocab_size": 31002,
75
+ "xla_device": null
76
+ },
77
+ "decoder_start_token_id": 4,
78
+ "encoder": {
79
+ "_name_or_path": "dccuchile/bert-base-spanish-wwm-uncased",
80
+ "add_cross_attention": false,
81
+ "architectures": [
82
+ "BertForMaskedLM"
83
+ ],
84
+ "attention_probs_dropout_prob": 0.1,
85
+ "bad_words_ids": null,
86
+ "bos_token_id": null,
87
+ "chunk_size_feed_forward": 0,
88
+ "decoder_start_token_id": null,
89
+ "diversity_penalty": 0.0,
90
+ "do_sample": false,
91
+ "early_stopping": false,
92
+ "eos_token_id": null,
93
+ "finetuning_task": null,
94
+ "gradient_checkpointing": false,
95
+ "hidden_act": "gelu",
96
+ "hidden_dropout_prob": 0.1,
97
+ "hidden_size": 768,
98
+ "id2label": {
99
+ "0": "LABEL_0",
100
+ "1": "LABEL_1"
101
+ },
102
+ "initializer_range": 0.02,
103
+ "intermediate_size": 3072,
104
+ "is_decoder": false,
105
+ "is_encoder_decoder": false,
106
+ "label2id": {
107
+ "LABEL_0": 0,
108
+ "LABEL_1": 1
109
+ },
110
+ "layer_norm_eps": 1e-12,
111
+ "length_penalty": 1.0,
112
+ "max_length": 20,
113
+ "max_position_embeddings": 512,
114
+ "min_length": 0,
115
+ "model_type": "bert",
116
+ "no_repeat_ngram_size": 0,
117
+ "num_attention_heads": 12,
118
+ "num_beam_groups": 1,
119
+ "num_beams": 1,
120
+ "num_hidden_layers": 12,
121
+ "num_return_sequences": 1,
122
+ "output_attentions": false,
123
+ "output_hidden_states": false,
124
+ "output_past": true,
125
+ "output_scores": false,
126
+ "pad_token_id": 1,
127
+ "position_embedding_type": "absolute",
128
+ "prefix": null,
129
+ "pruned_heads": {},
130
+ "repetition_penalty": 1.0,
131
+ "return_dict": true,
132
+ "return_dict_in_generate": false,
133
+ "sep_token_id": null,
134
+ "task_specific_params": null,
135
+ "temperature": 1.0,
136
+ "tie_encoder_decoder": false,
137
+ "tie_word_embeddings": true,
138
+ "tokenizer_class": null,
139
+ "top_k": 50,
140
+ "top_p": 1.0,
141
+ "torchscript": false,
142
+ "transformers_version": "4.2.2",
143
+ "type_vocab_size": 2,
144
+ "use_bfloat16": false,
145
+ "use_cache": true,
146
+ "vocab_size": 31002,
147
+ "xla_device": null
148
+ },
149
+ "eos_token_id": 5,
150
+ "is_encoder_decoder": true,
151
+ "model_type": "encoder-decoder",
152
+ "pad_token_id": 1,
153
+ "vocab_size": 31002
154
+ }
pytorch_model.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:802884c222f29f045e4556c4b9aa7c32f81dc7c19a3efbe4b75d0d8304e4f6ee
3
+ size 992553531
special_tokens_map.json ADDED
@@ -0,0 +1,13 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+
3
+ "unk_token": "[UNK]",
4
+
5
+ "sep_token": "[SEP]",
6
+
7
+ "pad_token": "[PAD]",
8
+
9
+ "cls_token": "[CLS]",
10
+
11
+ "mask_token": "[MASK]"
12
+
13
+ }
tokenizer.json ADDED
The diff for this file is too large to render. See raw diff
 
tokenizer_config.json ADDED
@@ -0,0 +1,25 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+
3
+ "do_lower_case": true,
4
+
5
+ "unk_token": "[UNK]",
6
+
7
+ "sep_token": "[SEP]",
8
+
9
+ "pad_token": "[PAD]",
10
+
11
+ "cls_token": "[CLS]",
12
+
13
+ "mask_token": "[MASK]",
14
+
15
+ "tokenize_chinese_chars": true,
16
+
17
+ "strip_accents": false,
18
+
19
+ "do_basic_tokenize": true,
20
+
21
+ "never_split": null,
22
+
23
+ "model_max_length": 512
24
+
25
+ }
training_args.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:f3906d9c368cbe3123edc257b6627b237f1eb46968f9a9406db03cb94d7d3a63
3
+ size 1941