honnlp's picture
End of training
ab34eaf verified
raw
history blame
No virus
7.24 kB
{
"best_metric": 0.9285714285714286,
"best_model_checkpoint": "videomae-base-finetuned-ucf101-subset/checkpoint-225",
"epoch": 3.25,
"eval_steps": 500,
"global_step": 300,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.03333333333333333,
"grad_norm": 10.09014892578125,
"learning_rate": 1.6666666666666667e-05,
"loss": 2.3797,
"step": 10
},
{
"epoch": 0.06666666666666667,
"grad_norm": 9.839759826660156,
"learning_rate": 3.3333333333333335e-05,
"loss": 2.2833,
"step": 20
},
{
"epoch": 0.1,
"grad_norm": 8.606062889099121,
"learning_rate": 5e-05,
"loss": 2.2797,
"step": 30
},
{
"epoch": 0.13333333333333333,
"grad_norm": 8.876961708068848,
"learning_rate": 4.814814814814815e-05,
"loss": 2.0507,
"step": 40
},
{
"epoch": 0.16666666666666666,
"grad_norm": 14.711962699890137,
"learning_rate": 4.62962962962963e-05,
"loss": 2.0574,
"step": 50
},
{
"epoch": 0.2,
"grad_norm": 10.008936882019043,
"learning_rate": 4.4444444444444447e-05,
"loss": 1.8826,
"step": 60
},
{
"epoch": 0.23333333333333334,
"grad_norm": 14.089128494262695,
"learning_rate": 4.259259259259259e-05,
"loss": 2.0257,
"step": 70
},
{
"epoch": 0.25,
"eval_accuracy": 0.6142857142857143,
"eval_loss": 1.4213531017303467,
"eval_runtime": 21.4927,
"eval_samples_per_second": 3.257,
"eval_steps_per_second": 0.837,
"step": 75
},
{
"epoch": 1.0166666666666666,
"grad_norm": 11.685139656066895,
"learning_rate": 4.074074074074074e-05,
"loss": 1.4594,
"step": 80
},
{
"epoch": 1.05,
"grad_norm": 15.033803939819336,
"learning_rate": 3.888888888888889e-05,
"loss": 1.324,
"step": 90
},
{
"epoch": 1.0833333333333333,
"grad_norm": 10.9203462600708,
"learning_rate": 3.7037037037037037e-05,
"loss": 1.0948,
"step": 100
},
{
"epoch": 1.1166666666666667,
"grad_norm": 5.745022296905518,
"learning_rate": 3.518518518518519e-05,
"loss": 0.8842,
"step": 110
},
{
"epoch": 1.15,
"grad_norm": 9.993545532226562,
"learning_rate": 3.3333333333333335e-05,
"loss": 1.0636,
"step": 120
},
{
"epoch": 1.1833333333333333,
"grad_norm": 17.138124465942383,
"learning_rate": 3.148148148148148e-05,
"loss": 0.6466,
"step": 130
},
{
"epoch": 1.2166666666666668,
"grad_norm": 5.373832702636719,
"learning_rate": 2.962962962962963e-05,
"loss": 0.6253,
"step": 140
},
{
"epoch": 1.25,
"grad_norm": 4.458014488220215,
"learning_rate": 2.777777777777778e-05,
"loss": 1.0258,
"step": 150
},
{
"epoch": 1.25,
"eval_accuracy": 0.8,
"eval_loss": 0.6301711797714233,
"eval_runtime": 20.959,
"eval_samples_per_second": 3.34,
"eval_steps_per_second": 0.859,
"step": 150
},
{
"epoch": 2.033333333333333,
"grad_norm": 10.006092071533203,
"learning_rate": 2.5925925925925925e-05,
"loss": 0.3082,
"step": 160
},
{
"epoch": 2.066666666666667,
"grad_norm": 10.732275009155273,
"learning_rate": 2.4074074074074074e-05,
"loss": 0.5016,
"step": 170
},
{
"epoch": 2.1,
"grad_norm": 6.761454105377197,
"learning_rate": 2.2222222222222223e-05,
"loss": 0.4114,
"step": 180
},
{
"epoch": 2.1333333333333333,
"grad_norm": 2.822266101837158,
"learning_rate": 2.037037037037037e-05,
"loss": 0.4457,
"step": 190
},
{
"epoch": 2.1666666666666665,
"grad_norm": 6.605894088745117,
"learning_rate": 1.8518518518518518e-05,
"loss": 0.4063,
"step": 200
},
{
"epoch": 2.2,
"grad_norm": 18.81662940979004,
"learning_rate": 1.6666666666666667e-05,
"loss": 0.2629,
"step": 210
},
{
"epoch": 2.2333333333333334,
"grad_norm": 5.214437484741211,
"learning_rate": 1.4814814814814815e-05,
"loss": 0.3566,
"step": 220
},
{
"epoch": 2.25,
"eval_accuracy": 0.9285714285714286,
"eval_loss": 0.31571879982948303,
"eval_runtime": 21.9318,
"eval_samples_per_second": 3.192,
"eval_steps_per_second": 0.821,
"step": 225
},
{
"epoch": 3.0166666666666666,
"grad_norm": 2.7175469398498535,
"learning_rate": 1.2962962962962962e-05,
"loss": 0.1894,
"step": 230
},
{
"epoch": 3.05,
"grad_norm": 0.32148978114128113,
"learning_rate": 1.1111111111111112e-05,
"loss": 0.0987,
"step": 240
},
{
"epoch": 3.0833333333333335,
"grad_norm": 10.567233085632324,
"learning_rate": 9.259259259259259e-06,
"loss": 0.3552,
"step": 250
},
{
"epoch": 3.1166666666666667,
"grad_norm": 11.495248794555664,
"learning_rate": 7.4074074074074075e-06,
"loss": 0.148,
"step": 260
},
{
"epoch": 3.15,
"grad_norm": 4.4286274909973145,
"learning_rate": 5.555555555555556e-06,
"loss": 0.209,
"step": 270
},
{
"epoch": 3.183333333333333,
"grad_norm": 1.8519426584243774,
"learning_rate": 3.7037037037037037e-06,
"loss": 0.2113,
"step": 280
},
{
"epoch": 3.216666666666667,
"grad_norm": 3.1793460845947266,
"learning_rate": 1.8518518518518519e-06,
"loss": 0.1944,
"step": 290
},
{
"epoch": 3.25,
"grad_norm": 2.4581689834594727,
"learning_rate": 0.0,
"loss": 0.3042,
"step": 300
},
{
"epoch": 3.25,
"eval_accuracy": 0.9285714285714286,
"eval_loss": 0.21487949788570404,
"eval_runtime": 20.1773,
"eval_samples_per_second": 3.469,
"eval_steps_per_second": 0.892,
"step": 300
},
{
"epoch": 3.25,
"step": 300,
"total_flos": 1.495384188125184e+18,
"train_loss": 0.9161897947390875,
"train_runtime": 840.6389,
"train_samples_per_second": 1.427,
"train_steps_per_second": 0.357
},
{
"epoch": 3.25,
"eval_accuracy": 0.8451612903225807,
"eval_loss": 0.3661264479160309,
"eval_runtime": 46.685,
"eval_samples_per_second": 3.32,
"eval_steps_per_second": 0.835,
"step": 300
},
{
"epoch": 3.25,
"eval_accuracy": 0.8451612903225807,
"eval_loss": 0.36612647771835327,
"eval_runtime": 44.7201,
"eval_samples_per_second": 3.466,
"eval_steps_per_second": 0.872,
"step": 300
}
],
"logging_steps": 10,
"max_steps": 300,
"num_input_tokens_seen": 0,
"num_train_epochs": 9223372036854775807,
"save_steps": 500,
"total_flos": 1.495384188125184e+18,
"train_batch_size": 4,
"trial_name": null,
"trial_params": null
}