model_gam_1809_viner2

This model was trained from scratch on the None dataset. It achieves the following results on the evaluation set:

  • eval_loss: 0.6808
  • eval_hiều cao khách hàng: {'precision': 0.9117647058823529, 'recall': 0.9393939393939394, 'f1': 0.9253731343283583, 'number': 33}
  • eval_hiều dài sản phẩm: {'precision': 0.7272727272727273, 'recall': 0.4444444444444444, 'f1': 0.5517241379310345, 'number': 18}
  • eval_hiều rộng sản phẩm: {'precision': 0.3157894736842105, 'recall': 0.6666666666666666, 'f1': 0.42857142857142855, 'number': 9}
  • eval_hong cách mua sắm: {'precision': 0.5925925925925926, 'recall': 0.7619047619047619, 'f1': 0.6666666666666666, 'number': 21}
  • eval_hong cách nhà cửa: {'precision': 0.7222222222222222, 'recall': 0.6190476190476191, 'f1': 0.6666666666666666, 'number': 21}
  • eval_hong cách thời trang: {'precision': 0.5416666666666666, 'recall': 0.7647058823529411, 'f1': 0.6341463414634146, 'number': 17}
  • eval_hất tóc: {'precision': 0.6896551724137931, 'recall': 0.7692307692307693, 'f1': 0.7272727272727274, 'number': 26}
  • eval_hối lượng sản phẩm: {'precision': 0.7894736842105263, 'recall': 0.8333333333333334, 'f1': 0.8108108108108109, 'number': 18}
  • eval_hời gian nhận hàng: {'precision': 0.6571428571428571, 'recall': 0.7931034482758621, 'f1': 0.71875, 'number': 29}
  • eval_iá sản phẩm: {'precision': 0.7777777777777778, 'recall': 0.8484848484848485, 'f1': 0.8115942028985507, 'number': 33}
  • eval_oại da: {'precision': 0.7586206896551724, 'recall': 0.9166666666666666, 'f1': 0.830188679245283, 'number': 24}
  • eval_ung hoàng đạo: {'precision': 1.0, 'recall': 1.0, 'f1': 1.0, 'number': 18}
  • eval_ung mệnh: {'precision': 0.9130434782608695, 'recall': 0.9130434782608695, 'f1': 0.9130434782608695, 'number': 23}
  • eval_àu da: {'precision': 0.7352941176470589, 'recall': 0.6756756756756757, 'f1': 0.7042253521126761, 'number': 37}
  • eval_àu sắc sản phẩm: {'precision': 0.782608695652174, 'recall': 0.7659574468085106, 'f1': 0.7741935483870968, 'number': 47}
  • eval_áng khuôn mặt: {'precision': 0.8095238095238095, 'recall': 0.85, 'f1': 0.8292682926829269, 'number': 20}
  • eval_áng người: {'precision': 0.9411764705882353, 'recall': 0.8888888888888888, 'f1': 0.9142857142857143, 'number': 18}
  • eval_ân nặng khách hàng: {'precision': 0.8888888888888888, 'recall': 0.9523809523809523, 'f1': 0.9195402298850575, 'number': 42}
  • eval_ã sản phẩm: {'precision': 0.6666666666666666, 'recall': 0.7692307692307693, 'f1': 0.7142857142857142, 'number': 26}
  • eval_ơn vị sản phẩm: {'precision': 0.726027397260274, 'recall': 0.6883116883116883, 'f1': 0.7066666666666667, 'number': 77}
  • eval_ản phẩm: {'precision': 0.8305921052631579, 'recall': 0.8790252393385553, 'f1': 0.854122621564482, 'number': 1149}
  • eval_ật độ tóc: {'precision': 0.8636363636363636, 'recall': 0.8260869565217391, 'f1': 0.8444444444444444, 'number': 23}
  • eval_ặc điểm khác của da: {'precision': 0.8571428571428571, 'recall': 0.8780487804878049, 'f1': 0.8674698795180722, 'number': 41}
  • eval_ịa chỉ nhận hàng: {'precision': 0.6285714285714286, 'recall': 0.7857142857142857, 'f1': 0.6984126984126985, 'number': 28}
  • eval_ố lượng sản phẩm: {'precision': 0.7642857142857142, 'recall': 0.7482517482517482, 'f1': 0.7561837455830388, 'number': 143}
  • eval_ố điện thoại nhận hàng: {'precision': 0.8994413407821229, 'recall': 1.0, 'f1': 0.9470588235294117, 'number': 161}
  • eval_ố đo vòng: {'precision': 0.952, 'recall': 0.9444444444444444, 'f1': 0.9482071713147411, 'number': 126}
  • eval_ộ dài tóc: {'precision': 0.8, 'recall': 0.8, 'f1': 0.8000000000000002, 'number': 20}
  • eval_ộ tuổi khách hàng: {'precision': 0.8888888888888888, 'recall': 0.8888888888888888, 'f1': 0.8888888888888888, 'number': 18}
  • eval_overall_precision: 0.8164
  • eval_overall_recall: 0.8592
  • eval_overall_f1: 0.8372
  • eval_overall_accuracy: 0.9167
  • eval_runtime: 3.2923
  • eval_samples_per_second: 196.821
  • eval_steps_per_second: 49.205
  • epoch: 8.0
  • step: 7960

Model description

More information needed

Intended uses & limitations

More information needed

Training and evaluation data

More information needed

Training procedure

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 2.5e-05
  • train_batch_size: 4
  • eval_batch_size: 4
  • seed: 42
  • optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
  • lr_scheduler_type: linear
  • num_epochs: 10

Framework versions

  • Transformers 4.44.2
  • Pytorch 2.4.0+cu121
  • Datasets 3.0.0
  • Tokenizers 0.19.1
Downloads last month
9
Safetensors
Model size
559M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.