--- library_name: transformers tags: - generated_from_trainer model-index: - name: model_gam_1809_viner2 results: [] --- # model_gam_1809_viner2 This model was trained from scratch on the None dataset. It achieves the following results on the evaluation set: - eval_loss: 0.6808 - eval_hiều cao khách hàng: {'precision': 0.9117647058823529, 'recall': 0.9393939393939394, 'f1': 0.9253731343283583, 'number': 33} - eval_hiều dài sản phẩm: {'precision': 0.7272727272727273, 'recall': 0.4444444444444444, 'f1': 0.5517241379310345, 'number': 18} - eval_hiều rộng sản phẩm: {'precision': 0.3157894736842105, 'recall': 0.6666666666666666, 'f1': 0.42857142857142855, 'number': 9} - eval_hong cách mua sắm: {'precision': 0.5925925925925926, 'recall': 0.7619047619047619, 'f1': 0.6666666666666666, 'number': 21} - eval_hong cách nhà cửa: {'precision': 0.7222222222222222, 'recall': 0.6190476190476191, 'f1': 0.6666666666666666, 'number': 21} - eval_hong cách thời trang: {'precision': 0.5416666666666666, 'recall': 0.7647058823529411, 'f1': 0.6341463414634146, 'number': 17} - eval_hất tóc: {'precision': 0.6896551724137931, 'recall': 0.7692307692307693, 'f1': 0.7272727272727274, 'number': 26} - eval_hối lượng sản phẩm: {'precision': 0.7894736842105263, 'recall': 0.8333333333333334, 'f1': 0.8108108108108109, 'number': 18} - eval_hời gian nhận hàng: {'precision': 0.6571428571428571, 'recall': 0.7931034482758621, 'f1': 0.71875, 'number': 29} - eval_iá sản phẩm: {'precision': 0.7777777777777778, 'recall': 0.8484848484848485, 'f1': 0.8115942028985507, 'number': 33} - eval_oại da: {'precision': 0.7586206896551724, 'recall': 0.9166666666666666, 'f1': 0.830188679245283, 'number': 24} - eval_ung hoàng đạo: {'precision': 1.0, 'recall': 1.0, 'f1': 1.0, 'number': 18} - eval_ung mệnh: {'precision': 0.9130434782608695, 'recall': 0.9130434782608695, 'f1': 0.9130434782608695, 'number': 23} - eval_àu da: {'precision': 0.7352941176470589, 'recall': 0.6756756756756757, 'f1': 0.7042253521126761, 'number': 37} - eval_àu sắc sản phẩm: {'precision': 0.782608695652174, 'recall': 0.7659574468085106, 'f1': 0.7741935483870968, 'number': 47} - eval_áng khuôn mặt: {'precision': 0.8095238095238095, 'recall': 0.85, 'f1': 0.8292682926829269, 'number': 20} - eval_áng người: {'precision': 0.9411764705882353, 'recall': 0.8888888888888888, 'f1': 0.9142857142857143, 'number': 18} - eval_ân nặng khách hàng: {'precision': 0.8888888888888888, 'recall': 0.9523809523809523, 'f1': 0.9195402298850575, 'number': 42} - eval_ã sản phẩm: {'precision': 0.6666666666666666, 'recall': 0.7692307692307693, 'f1': 0.7142857142857142, 'number': 26} - eval_ơn vị sản phẩm: {'precision': 0.726027397260274, 'recall': 0.6883116883116883, 'f1': 0.7066666666666667, 'number': 77} - eval_ản phẩm: {'precision': 0.8305921052631579, 'recall': 0.8790252393385553, 'f1': 0.854122621564482, 'number': 1149} - eval_ật độ tóc: {'precision': 0.8636363636363636, 'recall': 0.8260869565217391, 'f1': 0.8444444444444444, 'number': 23} - eval_ặc điểm khác của da: {'precision': 0.8571428571428571, 'recall': 0.8780487804878049, 'f1': 0.8674698795180722, 'number': 41} - eval_ịa chỉ nhận hàng: {'precision': 0.6285714285714286, 'recall': 0.7857142857142857, 'f1': 0.6984126984126985, 'number': 28} - eval_ố lượng sản phẩm: {'precision': 0.7642857142857142, 'recall': 0.7482517482517482, 'f1': 0.7561837455830388, 'number': 143} - eval_ố điện thoại nhận hàng: {'precision': 0.8994413407821229, 'recall': 1.0, 'f1': 0.9470588235294117, 'number': 161} - eval_ố đo vòng: {'precision': 0.952, 'recall': 0.9444444444444444, 'f1': 0.9482071713147411, 'number': 126} - eval_ộ dài tóc: {'precision': 0.8, 'recall': 0.8, 'f1': 0.8000000000000002, 'number': 20} - eval_ộ tuổi khách hàng: {'precision': 0.8888888888888888, 'recall': 0.8888888888888888, 'f1': 0.8888888888888888, 'number': 18} - eval_overall_precision: 0.8164 - eval_overall_recall: 0.8592 - eval_overall_f1: 0.8372 - eval_overall_accuracy: 0.9167 - eval_runtime: 3.2923 - eval_samples_per_second: 196.821 - eval_steps_per_second: 49.205 - epoch: 8.0 - step: 7960 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 2.5e-05 - train_batch_size: 4 - eval_batch_size: 4 - seed: 42 - optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08 - lr_scheduler_type: linear - num_epochs: 10 ### Framework versions - Transformers 4.44.2 - Pytorch 2.4.0+cu121 - Datasets 3.0.0 - Tokenizers 0.19.1