model_gam_1809_viner2
This model was trained from scratch on the None dataset. It achieves the following results on the evaluation set:
- eval_loss: 0.6808
- eval_hiều cao khách hàng: {'precision': 0.9117647058823529, 'recall': 0.9393939393939394, 'f1': 0.9253731343283583, 'number': 33}
- eval_hiều dài sản phẩm: {'precision': 0.7272727272727273, 'recall': 0.4444444444444444, 'f1': 0.5517241379310345, 'number': 18}
- eval_hiều rộng sản phẩm: {'precision': 0.3157894736842105, 'recall': 0.6666666666666666, 'f1': 0.42857142857142855, 'number': 9}
- eval_hong cách mua sắm: {'precision': 0.5925925925925926, 'recall': 0.7619047619047619, 'f1': 0.6666666666666666, 'number': 21}
- eval_hong cách nhà cửa: {'precision': 0.7222222222222222, 'recall': 0.6190476190476191, 'f1': 0.6666666666666666, 'number': 21}
- eval_hong cách thời trang: {'precision': 0.5416666666666666, 'recall': 0.7647058823529411, 'f1': 0.6341463414634146, 'number': 17}
- eval_hất tóc: {'precision': 0.6896551724137931, 'recall': 0.7692307692307693, 'f1': 0.7272727272727274, 'number': 26}
- eval_hối lượng sản phẩm: {'precision': 0.7894736842105263, 'recall': 0.8333333333333334, 'f1': 0.8108108108108109, 'number': 18}
- eval_hời gian nhận hàng: {'precision': 0.6571428571428571, 'recall': 0.7931034482758621, 'f1': 0.71875, 'number': 29}
- eval_iá sản phẩm: {'precision': 0.7777777777777778, 'recall': 0.8484848484848485, 'f1': 0.8115942028985507, 'number': 33}
- eval_oại da: {'precision': 0.7586206896551724, 'recall': 0.9166666666666666, 'f1': 0.830188679245283, 'number': 24}
- eval_ung hoàng đạo: {'precision': 1.0, 'recall': 1.0, 'f1': 1.0, 'number': 18}
- eval_ung mệnh: {'precision': 0.9130434782608695, 'recall': 0.9130434782608695, 'f1': 0.9130434782608695, 'number': 23}
- eval_àu da: {'precision': 0.7352941176470589, 'recall': 0.6756756756756757, 'f1': 0.7042253521126761, 'number': 37}
- eval_àu sắc sản phẩm: {'precision': 0.782608695652174, 'recall': 0.7659574468085106, 'f1': 0.7741935483870968, 'number': 47}
- eval_áng khuôn mặt: {'precision': 0.8095238095238095, 'recall': 0.85, 'f1': 0.8292682926829269, 'number': 20}
- eval_áng người: {'precision': 0.9411764705882353, 'recall': 0.8888888888888888, 'f1': 0.9142857142857143, 'number': 18}
- eval_ân nặng khách hàng: {'precision': 0.8888888888888888, 'recall': 0.9523809523809523, 'f1': 0.9195402298850575, 'number': 42}
- eval_ã sản phẩm: {'precision': 0.6666666666666666, 'recall': 0.7692307692307693, 'f1': 0.7142857142857142, 'number': 26}
- eval_ơn vị sản phẩm: {'precision': 0.726027397260274, 'recall': 0.6883116883116883, 'f1': 0.7066666666666667, 'number': 77}
- eval_ản phẩm: {'precision': 0.8305921052631579, 'recall': 0.8790252393385553, 'f1': 0.854122621564482, 'number': 1149}
- eval_ật độ tóc: {'precision': 0.8636363636363636, 'recall': 0.8260869565217391, 'f1': 0.8444444444444444, 'number': 23}
- eval_ặc điểm khác của da: {'precision': 0.8571428571428571, 'recall': 0.8780487804878049, 'f1': 0.8674698795180722, 'number': 41}
- eval_ịa chỉ nhận hàng: {'precision': 0.6285714285714286, 'recall': 0.7857142857142857, 'f1': 0.6984126984126985, 'number': 28}
- eval_ố lượng sản phẩm: {'precision': 0.7642857142857142, 'recall': 0.7482517482517482, 'f1': 0.7561837455830388, 'number': 143}
- eval_ố điện thoại nhận hàng: {'precision': 0.8994413407821229, 'recall': 1.0, 'f1': 0.9470588235294117, 'number': 161}
- eval_ố đo vòng: {'precision': 0.952, 'recall': 0.9444444444444444, 'f1': 0.9482071713147411, 'number': 126}
- eval_ộ dài tóc: {'precision': 0.8, 'recall': 0.8, 'f1': 0.8000000000000002, 'number': 20}
- eval_ộ tuổi khách hàng: {'precision': 0.8888888888888888, 'recall': 0.8888888888888888, 'f1': 0.8888888888888888, 'number': 18}
- eval_overall_precision: 0.8164
- eval_overall_recall: 0.8592
- eval_overall_f1: 0.8372
- eval_overall_accuracy: 0.9167
- eval_runtime: 3.2923
- eval_samples_per_second: 196.821
- eval_steps_per_second: 49.205
- epoch: 8.0
- step: 7960
Model description
More information needed
Intended uses & limitations
More information needed
Training and evaluation data
More information needed
Training procedure
Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 2.5e-05
- train_batch_size: 4
- eval_batch_size: 4
- seed: 42
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 10
Framework versions
- Transformers 4.44.2
- Pytorch 2.4.0+cu121
- Datasets 3.0.0
- Tokenizers 0.19.1
- Downloads last month
- 9
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social
visibility and check back later, or deploy to Inference Endpoints (dedicated)
instead.