VJLasmanis commited on
Commit
be17300
1 Parent(s): 1a3972c

Uploading the model files to the base directory

Browse files
Files changed (5) hide show
  1. config.json +32 -0
  2. generation_config.json +7 -0
  3. output.txt +234 -0
  4. pytorch_model.bin +3 -0
  5. training_args.bin +3 -0
config.json ADDED
@@ -0,0 +1,32 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "google/mt5-large",
3
+ "architectures": [
4
+ "MT5ForConditionalGeneration"
5
+ ],
6
+ "d_ff": 2816,
7
+ "d_kv": 64,
8
+ "d_model": 1024,
9
+ "decoder_start_token_id": 0,
10
+ "dense_act_fn": "gelu_new",
11
+ "dropout_rate": 0.1,
12
+ "eos_token_id": 1,
13
+ "feed_forward_proj": "gated-gelu",
14
+ "initializer_factor": 1.0,
15
+ "is_encoder_decoder": true,
16
+ "is_gated_act": true,
17
+ "layer_norm_epsilon": 1e-06,
18
+ "model_type": "mt5",
19
+ "num_decoder_layers": 24,
20
+ "num_heads": 16,
21
+ "num_layers": 24,
22
+ "output_past": true,
23
+ "pad_token_id": 0,
24
+ "relative_attention_max_distance": 128,
25
+ "relative_attention_num_buckets": 32,
26
+ "tie_word_embeddings": false,
27
+ "tokenizer_class": "T5Tokenizer",
28
+ "torch_dtype": "float32",
29
+ "transformers_version": "4.29.1",
30
+ "use_cache": true,
31
+ "vocab_size": 250112
32
+ }
generation_config.json ADDED
@@ -0,0 +1,7 @@
 
 
 
 
 
 
 
 
1
+ {
2
+ "_from_model_config": true,
3
+ "decoder_start_token_id": 0,
4
+ "eos_token_id": 1,
5
+ "pad_token_id": 0,
6
+ "transformers_version": "4.29.1"
7
+ }
output.txt ADDED
@@ -0,0 +1,234 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {'loss': 29.3333, 'learning_rate': 1e-05, 'epoch': 0.03}
2
+ {'loss': 12.5737, 'learning_rate': 2e-05, 'epoch': 0.06}
3
+ {'loss': 2.3813, 'learning_rate': 1.9968976856735126e-05, 'epoch': 0.09}
4
+ {'loss': 0.2316, 'learning_rate': 1.993795371347025e-05, 'epoch': 0.12}
5
+ {'loss': 0.099, 'learning_rate': 1.9906930570205375e-05, 'epoch': 0.15}
6
+ {'loss': 0.0608, 'learning_rate': 1.98759074269405e-05, 'epoch': 0.19}
7
+ {'loss': 0.0565, 'learning_rate': 1.9844884283675623e-05, 'epoch': 0.22}
8
+ {'loss': 0.0435, 'learning_rate': 1.9813861140410748e-05, 'epoch': 0.25}
9
+ {'loss': 0.0354, 'learning_rate': 1.9782837997145872e-05, 'epoch': 0.28}
10
+ {'loss': 0.0339, 'learning_rate': 1.9751814853880996e-05, 'epoch': 0.31}
11
+ {'loss': 0.0294, 'learning_rate': 1.972079171061612e-05, 'epoch': 0.34}
12
+ {'loss': 0.035, 'learning_rate': 1.9689768567351245e-05, 'epoch': 0.37}
13
+ {'loss': 0.0515, 'learning_rate': 1.965874542408637e-05, 'epoch': 0.4}
14
+ {'loss': 0.0232, 'learning_rate': 1.9627722280821494e-05, 'epoch': 0.43}
15
+ {'loss': 0.0349, 'learning_rate': 1.9596699137556618e-05, 'epoch': 0.46}
16
+ {'loss': 0.0226, 'learning_rate': 1.9565675994291742e-05, 'epoch': 0.49}
17
+ {'loss': 0.0215, 'learning_rate': 1.9534652851026867e-05, 'epoch': 0.53}
18
+ {'loss': 0.0204, 'learning_rate': 1.9503629707761994e-05, 'epoch': 0.56}
19
+ {'loss': 0.0192, 'learning_rate': 1.9472606564497115e-05, 'epoch': 0.59}
20
+ {'loss': 0.0194, 'learning_rate': 1.9441583421232243e-05, 'epoch': 0.62}
21
+ {'loss': 0.0179, 'learning_rate': 1.9410560277967364e-05, 'epoch': 0.65}
22
+ {'loss': 0.017, 'learning_rate': 1.937953713470249e-05, 'epoch': 0.68}
23
+ {'loss': 0.0226, 'learning_rate': 1.9348513991437613e-05, 'epoch': 0.71}
24
+ {'loss': 0.016, 'learning_rate': 1.9317490848172737e-05, 'epoch': 0.74}
25
+ {'loss': 0.0154, 'learning_rate': 1.928646770490786e-05, 'epoch': 0.77}
26
+ {'loss': 0.0157, 'learning_rate': 1.9255444561642986e-05, 'epoch': 0.8}
27
+ {'loss': 0.0139, 'learning_rate': 1.9224421418378113e-05, 'epoch': 0.84}
28
+ {'loss': 0.0129, 'learning_rate': 1.9193398275113234e-05, 'epoch': 0.87}
29
+ {'loss': 0.0134, 'learning_rate': 1.9162375131848362e-05, 'epoch': 0.9}
30
+ {'loss': 0.0134, 'learning_rate': 1.9131351988583483e-05, 'epoch': 0.93}
31
+ {'loss': 0.0133, 'learning_rate': 1.910032884531861e-05, 'epoch': 0.96}
32
+ {'loss': 0.0133, 'learning_rate': 1.9069305702053732e-05, 'epoch': 0.99}
33
+ {'eval_loss': 0.007159320637583733, 'eval_runtime': 63.5558, 'eval_samples_per_second': 113.05, 'eval_steps_per_second': 7.08, 'epoch': 1.0}
34
+ {'loss': 0.0118, 'learning_rate': 1.903828255878886e-05, 'epoch': 1.02}
35
+ {'loss': 0.0114, 'learning_rate': 1.900725941552398e-05, 'epoch': 1.05}
36
+ {'loss': 0.0115, 'learning_rate': 1.8976236272259108e-05, 'epoch': 1.08}
37
+ {'loss': 0.0115, 'learning_rate': 1.8945213128994233e-05, 'epoch': 1.11}
38
+ {'loss': 0.0118, 'learning_rate': 1.8914189985729357e-05, 'epoch': 1.14}
39
+ {'loss': 0.0119, 'learning_rate': 1.888316684246448e-05, 'epoch': 1.18}
40
+ {'loss': 0.0117, 'learning_rate': 1.8852143699199606e-05, 'epoch': 1.21}
41
+ {'loss': 0.0113, 'learning_rate': 1.882112055593473e-05, 'epoch': 1.24}
42
+ {'loss': 0.0102, 'learning_rate': 1.8790097412669854e-05, 'epoch': 1.27}
43
+ {'loss': 0.0109, 'learning_rate': 1.875907426940498e-05, 'epoch': 1.3}
44
+ {'loss': 0.0096, 'learning_rate': 1.87280511261401e-05, 'epoch': 1.33}
45
+ {'loss': 0.0105, 'learning_rate': 1.8697027982875227e-05, 'epoch': 1.36}
46
+ {'loss': 0.0093, 'learning_rate': 1.866600483961035e-05, 'epoch': 1.39}
47
+ {'loss': 0.0096, 'learning_rate': 1.8634981696345476e-05, 'epoch': 1.42}
48
+ {'loss': 0.0091, 'learning_rate': 1.86039585530806e-05, 'epoch': 1.45}
49
+ {'loss': 0.0099, 'learning_rate': 1.8572935409815725e-05, 'epoch': 1.48}
50
+ {'loss': 0.009, 'learning_rate': 1.854191226655085e-05, 'epoch': 1.52}
51
+ {'loss': 0.0097, 'learning_rate': 1.8510889123285973e-05, 'epoch': 1.55}
52
+ {'loss': 0.0089, 'learning_rate': 1.8479865980021098e-05, 'epoch': 1.58}
53
+ {'loss': 0.0097, 'learning_rate': 1.8448842836756222e-05, 'epoch': 1.61}
54
+ {'loss': 0.0099, 'learning_rate': 1.8417819693491346e-05, 'epoch': 1.64}
55
+ {'loss': 0.0092, 'learning_rate': 1.838679655022647e-05, 'epoch': 1.67}
56
+ {'loss': 0.0094, 'learning_rate': 1.8355773406961595e-05, 'epoch': 1.7}
57
+ {'loss': 0.0087, 'learning_rate': 1.832475026369672e-05, 'epoch': 1.73}
58
+ {'loss': 0.0091, 'learning_rate': 1.8293727120431844e-05, 'epoch': 1.76}
59
+ {'loss': 0.0098, 'learning_rate': 1.8262703977166968e-05, 'epoch': 1.79}
60
+ {'loss': 0.0093, 'learning_rate': 1.8231680833902092e-05, 'epoch': 1.82}
61
+ {'loss': 0.0088, 'learning_rate': 1.8200657690637217e-05, 'epoch': 1.86}
62
+ {'loss': 0.008, 'learning_rate': 1.816963454737234e-05, 'epoch': 1.89}
63
+ {'loss': 0.0088, 'learning_rate': 1.8138611404107465e-05, 'epoch': 1.92}
64
+ {'loss': 0.0084, 'learning_rate': 1.810758826084259e-05, 'epoch': 1.95}
65
+ {'loss': 0.0087, 'learning_rate': 1.8076565117577714e-05, 'epoch': 1.98}
66
+ {'eval_loss': 0.005626102443784475, 'eval_runtime': 63.5514, 'eval_samples_per_second': 113.058, 'eval_steps_per_second': 7.081, 'epoch': 2.0}
67
+ {'loss': 0.0081, 'learning_rate': 1.804554197431284e-05, 'epoch': 2.01}
68
+ {'loss': 0.007, 'learning_rate': 1.8014518831047963e-05, 'epoch': 2.04}
69
+ {'loss': 0.0072, 'learning_rate': 1.7983495687783087e-05, 'epoch': 2.07}
70
+ {'loss': 0.0069, 'learning_rate': 1.795247254451821e-05, 'epoch': 2.1}
71
+ {'loss': 0.0072, 'learning_rate': 1.7921449401253336e-05, 'epoch': 2.13}
72
+ {'loss': 0.0067, 'learning_rate': 1.789042625798846e-05, 'epoch': 2.16}
73
+ {'loss': 0.007, 'learning_rate': 1.7859403114723584e-05, 'epoch': 2.2}
74
+ {'loss': 0.0072, 'learning_rate': 1.782837997145871e-05, 'epoch': 2.23}
75
+ {'loss': 0.0074, 'learning_rate': 1.7797356828193833e-05, 'epoch': 2.26}
76
+ {'loss': 0.0075, 'learning_rate': 1.7766333684928957e-05, 'epoch': 2.29}
77
+ {'loss': 0.0072, 'learning_rate': 1.7735310541664085e-05, 'epoch': 2.32}
78
+ {'loss': 0.0061, 'learning_rate': 1.7704287398399206e-05, 'epoch': 2.35}
79
+ {'loss': 0.0071, 'learning_rate': 1.7673264255134334e-05, 'epoch': 2.38}
80
+ {'loss': 0.0074, 'learning_rate': 1.7642241111869455e-05, 'epoch': 2.41}
81
+ {'loss': 0.0072, 'learning_rate': 1.7611217968604582e-05, 'epoch': 2.44}
82
+ {'loss': 0.0072, 'learning_rate': 1.7580194825339703e-05, 'epoch': 2.47}
83
+ {'loss': 0.0075, 'learning_rate': 1.754917168207483e-05, 'epoch': 2.51}
84
+ {'loss': 0.0069, 'learning_rate': 1.7518148538809952e-05, 'epoch': 2.54}
85
+ {'loss': 0.007, 'learning_rate': 1.7487125395545076e-05, 'epoch': 2.57}
86
+ {'loss': 0.0058, 'learning_rate': 1.7456102252280204e-05, 'epoch': 2.6}
87
+ {'loss': 0.0064, 'learning_rate': 1.7425079109015325e-05, 'epoch': 2.63}
88
+ {'loss': 0.0067, 'learning_rate': 1.7394055965750453e-05, 'epoch': 2.66}
89
+ {'loss': 0.0062, 'learning_rate': 1.7363032822485574e-05, 'epoch': 2.69}
90
+ {'loss': 0.0066, 'learning_rate': 1.73320096792207e-05, 'epoch': 2.72}
91
+ {'loss': 0.0066, 'learning_rate': 1.7300986535955822e-05, 'epoch': 2.75}
92
+ {'loss': 0.0071, 'learning_rate': 1.726996339269095e-05, 'epoch': 2.78}
93
+ {'loss': 0.0065, 'learning_rate': 1.723894024942607e-05, 'epoch': 2.81}
94
+ {'loss': 0.0065, 'learning_rate': 1.72079171061612e-05, 'epoch': 2.85}
95
+ {'loss': 0.0065, 'learning_rate': 1.7176893962896323e-05, 'epoch': 2.88}
96
+ {'loss': 0.0062, 'learning_rate': 1.7145870819631448e-05, 'epoch': 2.91}
97
+ {'loss': 0.0075, 'learning_rate': 1.7114847676366572e-05, 'epoch': 2.94}
98
+ {'loss': 0.0064, 'learning_rate': 1.7083824533101696e-05, 'epoch': 2.97}
99
+ {'loss': 0.0063, 'learning_rate': 1.705280138983682e-05, 'epoch': 3.0}
100
+ {'eval_loss': 0.005162048153579235, 'eval_runtime': 63.5102, 'eval_samples_per_second': 113.132, 'eval_steps_per_second': 7.085, 'epoch': 3.0}
101
+ {'loss': 0.0055, 'learning_rate': 1.7021778246571945e-05, 'epoch': 3.03}
102
+ {'loss': 0.0055, 'learning_rate': 1.699075510330707e-05, 'epoch': 3.06}
103
+ {'loss': 0.0059, 'learning_rate': 1.6959731960042194e-05, 'epoch': 3.09}
104
+ {'loss': 0.0052, 'learning_rate': 1.6928708816777318e-05, 'epoch': 3.12}
105
+ {'loss': 0.0053, 'learning_rate': 1.6897685673512442e-05, 'epoch': 3.15}
106
+ {'loss': 0.005, 'learning_rate': 1.6866662530247567e-05, 'epoch': 3.19}
107
+ {'loss': 0.0056, 'learning_rate': 1.683563938698269e-05, 'epoch': 3.22}
108
+ {'loss': 0.0051, 'learning_rate': 1.6804616243717815e-05, 'epoch': 3.25}
109
+ {'loss': 0.0053, 'learning_rate': 1.677359310045294e-05, 'epoch': 3.28}
110
+ {'loss': 0.0053, 'learning_rate': 1.6742569957188064e-05, 'epoch': 3.31}
111
+ {'loss': 0.0051, 'learning_rate': 1.6711546813923188e-05, 'epoch': 3.34}
112
+ {'loss': 0.0056, 'learning_rate': 1.6680523670658313e-05, 'epoch': 3.37}
113
+ {'loss': 0.0068, 'learning_rate': 1.6649500527393437e-05, 'epoch': 3.4}
114
+ {'loss': 0.0054, 'learning_rate': 1.661847738412856e-05, 'epoch': 3.43}
115
+ {'loss': 0.0055, 'learning_rate': 1.6587454240863686e-05, 'epoch': 3.46}
116
+ {'loss': 0.0056, 'learning_rate': 1.655643109759881e-05, 'epoch': 3.49}
117
+ {'loss': 0.0053, 'learning_rate': 1.6525407954333934e-05, 'epoch': 3.53}
118
+ {'loss': 0.0051, 'learning_rate': 1.649438481106906e-05, 'epoch': 3.56}
119
+ {'loss': 0.005, 'learning_rate': 1.6463361667804183e-05, 'epoch': 3.59}
120
+ {'loss': 0.0055, 'learning_rate': 1.6432338524539307e-05, 'epoch': 3.62}
121
+ {'loss': 0.0048, 'learning_rate': 1.640131538127443e-05, 'epoch': 3.65}
122
+ {'loss': 0.0052, 'learning_rate': 1.6370292238009556e-05, 'epoch': 3.68}
123
+ {'loss': 0.0048, 'learning_rate': 1.633926909474468e-05, 'epoch': 3.71}
124
+ {'loss': 0.0049, 'learning_rate': 1.6308245951479805e-05, 'epoch': 3.74}
125
+ {'loss': 0.0054, 'learning_rate': 1.627722280821493e-05, 'epoch': 3.77}
126
+ {'loss': 0.0052, 'learning_rate': 1.6246199664950053e-05, 'epoch': 3.8}
127
+ {'loss': 0.0053, 'learning_rate': 1.6215176521685178e-05, 'epoch': 3.83}
128
+ {'loss': 0.0052, 'learning_rate': 1.6184153378420302e-05, 'epoch': 3.87}
129
+ {'loss': 0.0053, 'learning_rate': 1.6153130235155426e-05, 'epoch': 3.9}
130
+ {'loss': 0.0052, 'learning_rate': 1.612210709189055e-05, 'epoch': 3.93}
131
+ {'loss': 0.0052, 'learning_rate': 1.6091083948625675e-05, 'epoch': 3.96}
132
+ {'loss': 0.0054, 'learning_rate': 1.60600608053608e-05, 'epoch': 3.99}
133
+ {'eval_loss': 0.004835214000195265, 'eval_runtime': 63.5993, 'eval_samples_per_second': 112.973, 'eval_steps_per_second': 7.076, 'epoch': 4.0}
134
+ {'loss': 0.0042, 'learning_rate': 1.6029037662095924e-05, 'epoch': 4.02}
135
+ {'loss': 0.0044, 'learning_rate': 1.5998014518831048e-05, 'epoch': 4.05}
136
+ {'loss': 0.0041, 'learning_rate': 1.5966991375566176e-05, 'epoch': 4.08}
137
+ {'loss': 0.0046, 'learning_rate': 1.5935968232301297e-05, 'epoch': 4.11}
138
+ {'loss': 0.004, 'learning_rate': 1.5904945089036424e-05, 'epoch': 4.14}
139
+ {'loss': 0.0044, 'learning_rate': 1.5873921945771545e-05, 'epoch': 4.18}
140
+ {'loss': 0.0047, 'learning_rate': 1.5842898802506673e-05, 'epoch': 4.21}
141
+ {'loss': 0.0043, 'learning_rate': 1.5811875659241794e-05, 'epoch': 4.24}
142
+ {'loss': 0.004, 'learning_rate': 1.5780852515976922e-05, 'epoch': 4.27}
143
+ {'loss': 0.0043, 'learning_rate': 1.5749829372712043e-05, 'epoch': 4.3}
144
+ {'loss': 0.0048, 'learning_rate': 1.571880622944717e-05, 'epoch': 4.33}
145
+ {'loss': 0.0044, 'learning_rate': 1.5687783086182295e-05, 'epoch': 4.36}
146
+ {'loss': 0.0042, 'learning_rate': 1.5656759942917416e-05, 'epoch': 4.39}
147
+ {'loss': 0.0041, 'learning_rate': 1.5625736799652544e-05, 'epoch': 4.42}
148
+ {'loss': 0.0045, 'learning_rate': 1.5594713656387664e-05, 'epoch': 4.45}
149
+ {'loss': 0.0041, 'learning_rate': 1.5563690513122792e-05, 'epoch': 4.48}
150
+ {'loss': 0.0044, 'learning_rate': 1.5532667369857913e-05, 'epoch': 4.52}
151
+ {'loss': 0.0039, 'learning_rate': 1.550164422659304e-05, 'epoch': 4.55}
152
+ {'loss': 0.0045, 'learning_rate': 1.5470621083328162e-05, 'epoch': 4.58}
153
+ {'loss': 0.0039, 'learning_rate': 1.543959794006329e-05, 'epoch': 4.61}
154
+ {'loss': 0.0044, 'learning_rate': 1.5408574796798414e-05, 'epoch': 4.64}
155
+ {'loss': 0.004, 'learning_rate': 1.5377551653533538e-05, 'epoch': 4.67}
156
+ {'loss': 0.0048, 'learning_rate': 1.5346528510268663e-05, 'epoch': 4.7}
157
+ {'loss': 0.004, 'learning_rate': 1.5315505367003787e-05, 'epoch': 4.73}
158
+ {'loss': 0.0046, 'learning_rate': 1.528448222373891e-05, 'epoch': 4.76}
159
+ {'loss': 0.0043, 'learning_rate': 1.5253459080474036e-05, 'epoch': 4.79}
160
+ {'loss': 0.0043, 'learning_rate': 1.5222435937209158e-05, 'epoch': 4.82}
161
+ {'loss': 0.0042, 'learning_rate': 1.5191412793944284e-05, 'epoch': 4.86}
162
+ {'loss': 0.0045, 'learning_rate': 1.5160389650679409e-05, 'epoch': 4.89}
163
+ {'loss': 0.004, 'learning_rate': 1.5129366507414533e-05, 'epoch': 4.92}
164
+ {'loss': 0.0037, 'learning_rate': 1.5098343364149657e-05, 'epoch': 4.95}
165
+ {'loss': 0.0045, 'learning_rate': 1.506732022088478e-05, 'epoch': 4.98}
166
+ {'eval_loss': 0.004868941381573677, 'eval_runtime': 63.5068, 'eval_samples_per_second': 113.137, 'eval_steps_per_second': 7.086, 'epoch': 5.0}
167
+ {'loss': 0.0038, 'learning_rate': 1.5036297077619906e-05, 'epoch': 5.01}
168
+ {'loss': 0.0035, 'learning_rate': 1.5005273934355029e-05, 'epoch': 5.04}
169
+ {'loss': 0.0035, 'learning_rate': 1.4974250791090155e-05, 'epoch': 5.07}
170
+ {'loss': 0.0037, 'learning_rate': 1.4943227647825277e-05, 'epoch': 5.1}
171
+ {'loss': 0.0031, 'learning_rate': 1.4912204504560403e-05, 'epoch': 5.13}
172
+ {'loss': 0.0035, 'learning_rate': 1.4881181361295528e-05, 'epoch': 5.16}
173
+ {'loss': 0.0037, 'learning_rate': 1.4850158218030652e-05, 'epoch': 5.2}
174
+ {'loss': 0.0033, 'learning_rate': 1.4819135074765776e-05, 'epoch': 5.23}
175
+ {'loss': 0.0039, 'learning_rate': 1.47881119315009e-05, 'epoch': 5.26}
176
+ {'loss': 0.0036, 'learning_rate': 1.4757088788236025e-05, 'epoch': 5.29}
177
+ {'loss': 0.0039, 'learning_rate': 1.4726065644971151e-05, 'epoch': 5.32}
178
+ {'loss': 0.0035, 'learning_rate': 1.4695042501706274e-05, 'epoch': 5.35}
179
+ {'loss': 0.0034, 'learning_rate': 1.46640193584414e-05, 'epoch': 5.38}
180
+ {'loss': 0.003, 'learning_rate': 1.4632996215176522e-05, 'epoch': 5.41}
181
+ {'loss': 0.0034, 'learning_rate': 1.4601973071911648e-05, 'epoch': 5.44}
182
+ {'loss': 0.0045, 'learning_rate': 1.4570949928646771e-05, 'epoch': 5.47}
183
+ {'loss': 0.0036, 'learning_rate': 1.4539926785381897e-05, 'epoch': 5.51}
184
+ {'loss': 0.0036, 'learning_rate': 1.450890364211702e-05, 'epoch': 5.54}
185
+ {'loss': 0.0037, 'learning_rate': 1.4477880498852146e-05, 'epoch': 5.57}
186
+ {'loss': 0.0035, 'learning_rate': 1.444685735558727e-05, 'epoch': 5.6}
187
+ {'loss': 0.0037, 'learning_rate': 1.4415834212322393e-05, 'epoch': 5.63}
188
+ {'loss': 0.0037, 'learning_rate': 1.4384811069057519e-05, 'epoch': 5.66}
189
+ {'loss': 0.0035, 'learning_rate': 1.4353787925792641e-05, 'epoch': 5.69}
190
+ {'loss': 0.0039, 'learning_rate': 1.4322764782527767e-05, 'epoch': 5.72}
191
+ {'loss': 0.0038, 'learning_rate': 1.429174163926289e-05, 'epoch': 5.75}
192
+ {'loss': 0.003, 'learning_rate': 1.4260718495998016e-05, 'epoch': 5.78}
193
+ {'loss': 0.0033, 'learning_rate': 1.4229695352733139e-05, 'epoch': 5.81}
194
+ {'loss': 0.004, 'learning_rate': 1.4198672209468265e-05, 'epoch': 5.85}
195
+ {'loss': 0.0031, 'learning_rate': 1.4167649066203389e-05, 'epoch': 5.88}
196
+ {'loss': 0.0034, 'learning_rate': 1.4136625922938513e-05, 'epoch': 5.91}
197
+ {'loss': 0.0032, 'learning_rate': 1.4105602779673638e-05, 'epoch': 5.94}
198
+ {'loss': 0.0036, 'learning_rate': 1.4074579636408762e-05, 'epoch': 5.97}
199
+ {'loss': 0.0035, 'learning_rate': 1.4043556493143886e-05, 'epoch': 6.0}
200
+ {'eval_loss': 0.004906239919364452, 'eval_runtime': 63.3798, 'eval_samples_per_second': 113.364, 'eval_steps_per_second': 7.1, 'epoch': 6.0}
201
+ {'loss': 0.0029, 'learning_rate': 1.4012533349879013e-05, 'epoch': 6.03}
202
+ {'loss': 0.0028, 'learning_rate': 1.3981510206614135e-05, 'epoch': 6.06}
203
+ {'loss': 0.0026, 'learning_rate': 1.3950487063349261e-05, 'epoch': 6.09}
204
+ {'loss': 0.0028, 'learning_rate': 1.3919463920084384e-05, 'epoch': 6.12}
205
+ {'loss': 0.0025, 'learning_rate': 1.388844077681951e-05, 'epoch': 6.15}
206
+ {'loss': 0.0027, 'learning_rate': 1.3857417633554633e-05, 'epoch': 6.19}
207
+ {'loss': 0.0029, 'learning_rate': 1.3826394490289757e-05, 'epoch': 6.22}
208
+ {'loss': 0.0029, 'learning_rate': 1.3795371347024881e-05, 'epoch': 6.25}
209
+ {'loss': 0.0027, 'learning_rate': 1.3764348203760006e-05, 'epoch': 6.28}
210
+ {'loss': 0.0032, 'learning_rate': 1.373332506049513e-05, 'epoch': 6.31}
211
+ {'loss': 0.0031, 'learning_rate': 1.3702301917230254e-05, 'epoch': 6.34}
212
+ {'loss': 0.0032, 'learning_rate': 1.367127877396538e-05, 'epoch': 6.37}
213
+ {'loss': 0.0029, 'learning_rate': 1.3640255630700503e-05, 'epoch': 6.4}
214
+ {'loss': 0.0031, 'learning_rate': 1.3609232487435629e-05, 'epoch': 6.43}
215
+ {'loss': 0.0029, 'learning_rate': 1.3578209344170752e-05, 'epoch': 6.46}
216
+ {'loss': 0.0031, 'learning_rate': 1.3547186200905878e-05, 'epoch': 6.49}
217
+ {'loss': 0.003, 'learning_rate': 1.3516163057641e-05, 'epoch': 6.53}
218
+ {'loss': 0.0033, 'learning_rate': 1.3485139914376126e-05, 'epoch': 6.56}
219
+ {'loss': 0.0028, 'learning_rate': 1.3454116771111249e-05, 'epoch': 6.59}
220
+ {'loss': 0.0029, 'learning_rate': 1.3423093627846375e-05, 'epoch': 6.62}
221
+ {'loss': 0.003, 'learning_rate': 1.33920704845815e-05, 'epoch': 6.65}
222
+ {'loss': 0.0027, 'learning_rate': 1.3361047341316624e-05, 'epoch': 6.68}
223
+ {'loss': 0.0029, 'learning_rate': 1.3330024198051748e-05, 'epoch': 6.71}
224
+ {'loss': 0.003, 'learning_rate': 1.3299001054786872e-05, 'epoch': 6.74}
225
+ {'loss': 0.003, 'learning_rate': 1.3267977911521997e-05, 'epoch': 6.77}
226
+ {'loss': 0.0031, 'learning_rate': 1.3236954768257123e-05, 'epoch': 6.8}
227
+ {'loss': 0.0027, 'learning_rate': 1.3205931624992245e-05, 'epoch': 6.83}
228
+ {'loss': 0.0034, 'learning_rate': 1.3174908481727368e-05, 'epoch': 6.87}
229
+ {'loss': 0.0029, 'learning_rate': 1.3143885338462494e-05, 'epoch': 6.9}
230
+ {'loss': 0.0028, 'learning_rate': 1.3112862195197618e-05, 'epoch': 6.93}
231
+ {'loss': 0.0027, 'learning_rate': 1.3081839051932743e-05, 'epoch': 6.96}
232
+ {'loss': 0.0032, 'learning_rate': 1.3050815908667867e-05, 'epoch': 6.99}
233
+ {'eval_loss': 0.005266720894724131, 'eval_runtime': 63.4285, 'eval_samples_per_second': 113.277, 'eval_steps_per_second': 7.095, 'epoch': 7.0}
234
+ {'train_runtime': 28268.4419, 'train_samples_per_second': 45.751, 'train_steps_per_second': 11.438, 'train_loss': 0.20489513011235258, 'epoch': 7.0}
pytorch_model.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:80f51a079ead19b7f0e9d82d46e113eee42e614b574c8b285b733727812a3be1
3
+ size 4918519065
training_args.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:a3edc56f0f0e1d7be1ce3265d43ba3e04b7d248bf3e6aeba8adfbe111cabeb09
3
+ size 4027