Edit model card

detr-resnet-50-finetuned-10k-cppe5

This model is a fine-tuned version of facebook/detr-resnet-50 on the cppe-5 dataset. It achieves the following results on the evaluation set:

  • Loss: 0.9865
  • Map: 0.3578
  • Map 50: 0.6781
  • Map 75: 0.3105
  • Map Small: 0.3578
  • Map Medium: -1.0
  • Map Large: -1.0
  • Mar 1: 0.365
  • Mar 10: 0.535
  • Mar 100: 0.5483
  • Mar Small: 0.5483
  • Mar Medium: -1.0
  • Mar Large: -1.0
  • Map Coverall: 0.6584
  • Mar 100 Coverall: 0.7772
  • Map Face Shield: 0.3691
  • Mar 100 Face Shield: 0.6063
  • Map Gloves: 0.2477
  • Mar 100 Gloves: 0.4266
  • Map Goggles: 0.1766
  • Mar 100 Goggles: 0.4655
  • Map Mask: 0.3371
  • Mar 100 Mask: 0.4661

Model description

More information needed

Intended uses & limitations

More information needed

Training and evaluation data

More information needed

Training procedure

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 5e-05
  • train_batch_size: 8
  • eval_batch_size: 8
  • seed: 1337
  • optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
  • lr_scheduler_type: linear
  • num_epochs: 100.0
  • mixed_precision_training: Native AMP

Training results

Training Loss Epoch Step Validation Loss Map Map 50 Map 75 Map Small Map Medium Map Large Mar 1 Mar 10 Mar 100 Mar Small Mar Medium Mar Large Map Coverall Mar 100 Coverall Map Face Shield Mar 100 Face Shield Map Gloves Mar 100 Gloves Map Goggles Mar 100 Goggles Map Mask Mar 100 Mask
3.7198 1.0 107 3.1869 0.0036 0.0144 0.0006 0.0036 -1.0 -1.0 0.017 0.0426 0.0647 0.0647 -1.0 -1.0 0.0169 0.1994 0.0 0.0 0.0001 0.0177 0.0 0.0 0.0008 0.1062
3.0393 2.0 214 2.8978 0.007 0.021 0.003 0.007 -1.0 -1.0 0.0192 0.0796 0.1238 0.1238 -1.0 -1.0 0.0333 0.5216 0.0 0.0 0.0001 0.0292 0.0 0.0 0.0017 0.0684
2.7812 3.0 321 2.5445 0.0138 0.0414 0.0085 0.0138 -1.0 -1.0 0.0307 0.0994 0.1258 0.1258 -1.0 -1.0 0.0655 0.4938 0.0 0.0 0.0002 0.0354 0.0 0.0 0.0033 0.1
2.5992 4.0 428 2.3828 0.0232 0.0601 0.0155 0.0232 -1.0 -1.0 0.0423 0.1202 0.1518 0.1518 -1.0 -1.0 0.1021 0.5481 0.0 0.0 0.0006 0.0495 0.0059 0.0109 0.0072 0.1503
2.3828 5.0 535 2.2672 0.0283 0.0703 0.0179 0.0283 -1.0 -1.0 0.0521 0.1283 0.1737 0.1737 -1.0 -1.0 0.1344 0.5846 0.0 0.0 0.001 0.0833 0.0 0.0 0.0063 0.2006
2.2633 6.0 642 2.0618 0.0479 0.0996 0.0416 0.0479 -1.0 -1.0 0.0782 0.1679 0.2035 0.2035 -1.0 -1.0 0.2099 0.6333 0.003 0.0159 0.0018 0.1187 0.0052 0.0218 0.0195 0.2277
2.1837 7.0 749 2.1100 0.0455 0.1159 0.0255 0.0455 -1.0 -1.0 0.0747 0.1582 0.1894 0.1894 -1.0 -1.0 0.2068 0.6185 0.0085 0.0556 0.001 0.0734 0.0002 0.0018 0.0113 0.1977
2.0689 8.0 856 2.0000 0.054 0.1389 0.0301 0.054 -1.0 -1.0 0.0954 0.1846 0.2159 0.2159 -1.0 -1.0 0.2155 0.5537 0.0314 0.1397 0.0049 0.1406 0.0002 0.0018 0.0181 0.2435
2.0417 9.0 963 1.8702 0.0697 0.1631 0.0501 0.0697 -1.0 -1.0 0.1074 0.2173 0.257 0.257 -1.0 -1.0 0.2826 0.6086 0.0279 0.181 0.0046 0.1734 0.0102 0.0418 0.0234 0.2802
1.9972 10.0 1070 1.8563 0.0742 0.1568 0.0541 0.0742 -1.0 -1.0 0.1196 0.2416 0.2786 0.2786 -1.0 -1.0 0.2933 0.6086 0.0233 0.1921 0.0053 0.1672 0.0239 0.0891 0.025 0.3362
1.8931 11.0 1177 1.6778 0.1054 0.2248 0.0898 0.1054 -1.0 -1.0 0.1456 0.2764 0.3033 0.3033 -1.0 -1.0 0.3955 0.671 0.0498 0.2603 0.0108 0.2188 0.0149 0.0382 0.056 0.3282
1.8269 12.0 1284 1.6905 0.1111 0.2399 0.0942 0.1111 -1.0 -1.0 0.1543 0.2949 0.3257 0.3257 -1.0 -1.0 0.4113 0.679 0.069 0.319 0.0087 0.2021 0.015 0.0909 0.0514 0.3373
1.8036 13.0 1391 1.6406 0.1149 0.2407 0.097 0.1149 -1.0 -1.0 0.1636 0.3108 0.3372 0.3372 -1.0 -1.0 0.4255 0.6759 0.0771 0.3381 0.0109 0.2182 0.0137 0.1309 0.047 0.3226
1.7463 14.0 1498 1.7169 0.1106 0.2421 0.0875 0.1106 -1.0 -1.0 0.1776 0.3205 0.3511 0.3511 -1.0 -1.0 0.3996 0.7 0.0404 0.2476 0.0117 0.2458 0.0257 0.2036 0.0757 0.3582
1.763 15.0 1605 1.5961 0.1245 0.2577 0.1018 0.1245 -1.0 -1.0 0.1817 0.3384 0.3677 0.3677 -1.0 -1.0 0.4575 0.6679 0.0775 0.3698 0.0107 0.2505 0.0318 0.1964 0.0447 0.3537
1.6467 16.0 1712 1.5365 0.1376 0.3073 0.1062 0.1376 -1.0 -1.0 0.2164 0.38 0.408 0.408 -1.0 -1.0 0.455 0.6852 0.0739 0.3873 0.0215 0.2719 0.0442 0.2891 0.0934 0.4068
1.6222 17.0 1819 1.5990 0.1295 0.2696 0.1026 0.1295 -1.0 -1.0 0.1802 0.3409 0.3693 0.3693 -1.0 -1.0 0.4577 0.6654 0.0786 0.3619 0.0297 0.2958 0.0211 0.2218 0.0603 0.3017
1.6239 18.0 1926 1.4164 0.159 0.3543 0.1262 0.159 -1.0 -1.0 0.235 0.3929 0.4138 0.4138 -1.0 -1.0 0.4753 0.7204 0.0921 0.3968 0.039 0.2922 0.0323 0.2636 0.1565 0.396
1.5448 19.0 2033 1.4689 0.1628 0.3725 0.1314 0.1628 -1.0 -1.0 0.205 0.3811 0.4064 0.4064 -1.0 -1.0 0.4794 0.6895 0.1038 0.419 0.0398 0.2828 0.0333 0.28 0.1578 0.3605
1.5026 20.0 2140 1.4093 0.1798 0.397 0.1369 0.1798 -1.0 -1.0 0.2336 0.4125 0.4349 0.4349 -1.0 -1.0 0.4851 0.6858 0.1494 0.4508 0.0341 0.2859 0.0434 0.3382 0.1869 0.4136
1.4797 21.0 2247 1.4605 0.1652 0.3605 0.1254 0.1652 -1.0 -1.0 0.2295 0.3823 0.4041 0.4041 -1.0 -1.0 0.4978 0.6957 0.0968 0.3825 0.0529 0.2797 0.0263 0.3236 0.1522 0.339
1.4298 22.0 2354 1.4231 0.163 0.3558 0.115 0.163 -1.0 -1.0 0.2256 0.3851 0.4108 0.4108 -1.0 -1.0 0.4902 0.7093 0.1033 0.4159 0.0515 0.313 0.0261 0.3109 0.1437 0.3051
1.4157 23.0 2461 1.3665 0.1914 0.4048 0.1533 0.1914 -1.0 -1.0 0.2478 0.4232 0.447 0.447 -1.0 -1.0 0.491 0.6975 0.1599 0.4683 0.0502 0.3021 0.0603 0.3618 0.1956 0.4051
1.4438 24.0 2568 1.2908 0.2103 0.433 0.168 0.2103 -1.0 -1.0 0.2643 0.4512 0.4761 0.4761 -1.0 -1.0 0.5368 0.7136 0.1493 0.4873 0.0789 0.3609 0.043 0.3891 0.2433 0.4294
1.4044 25.0 2675 1.4752 0.1709 0.3749 0.1388 0.1709 -1.0 -1.0 0.2187 0.3926 0.4191 0.4191 -1.0 -1.0 0.4862 0.7167 0.09 0.3905 0.0762 0.299 0.0393 0.3527 0.1627 0.3367
1.3703 26.0 2782 1.3047 0.2162 0.4568 0.1714 0.2162 -1.0 -1.0 0.2661 0.4344 0.4548 0.4548 -1.0 -1.0 0.5342 0.7272 0.166 0.4508 0.0971 0.3281 0.0424 0.3527 0.2414 0.4153
1.3292 27.0 2889 1.2674 0.22 0.4681 0.1702 0.22 -1.0 -1.0 0.2743 0.4286 0.4473 0.4473 -1.0 -1.0 0.5438 0.7265 0.2128 0.4429 0.1171 0.3443 0.0387 0.3455 0.1878 0.3774
1.359 28.0 2996 1.3156 0.2007 0.4272 0.1536 0.2007 -1.0 -1.0 0.2715 0.4384 0.4555 0.4555 -1.0 -1.0 0.5306 0.7111 0.163 0.5016 0.0896 0.3135 0.0307 0.38 0.1898 0.3712
1.3471 29.0 3103 1.2646 0.2161 0.455 0.172 0.2161 -1.0 -1.0 0.277 0.4492 0.4728 0.4728 -1.0 -1.0 0.5301 0.7216 0.1708 0.519 0.1216 0.3271 0.0391 0.4145 0.2189 0.3819
1.308 30.0 3210 1.3017 0.2107 0.4465 0.1718 0.2107 -1.0 -1.0 0.2556 0.4141 0.4387 0.4387 -1.0 -1.0 0.5321 0.7136 0.1531 0.454 0.1037 0.3203 0.0334 0.3218 0.2313 0.3836
1.3023 31.0 3317 1.2809 0.2174 0.462 0.1714 0.2174 -1.0 -1.0 0.2646 0.4242 0.4473 0.4473 -1.0 -1.0 0.5484 0.7259 0.1686 0.427 0.1163 0.3536 0.0506 0.3564 0.2029 0.3734
1.2561 32.0 3424 1.2679 0.2082 0.4557 0.1579 0.2082 -1.0 -1.0 0.263 0.4283 0.4511 0.4511 -1.0 -1.0 0.541 0.7284 0.1448 0.4556 0.1308 0.3682 0.0411 0.3436 0.1835 0.3599
1.268 33.0 3531 1.2632 0.2304 0.4841 0.1882 0.2304 -1.0 -1.0 0.2852 0.4469 0.4629 0.4629 -1.0 -1.0 0.5535 0.7327 0.2042 0.5286 0.1027 0.2917 0.0472 0.38 0.2441 0.3814
1.2337 34.0 3638 1.2157 0.2339 0.497 0.1854 0.2339 -1.0 -1.0 0.2845 0.4495 0.4756 0.4756 -1.0 -1.0 0.5704 0.7414 0.187 0.5095 0.1339 0.3448 0.0414 0.3982 0.2367 0.3842
1.2192 35.0 3745 1.2109 0.2505 0.5078 0.2013 0.2505 -1.0 -1.0 0.288 0.4617 0.4795 0.4795 -1.0 -1.0 0.5599 0.7259 0.2431 0.5016 0.1564 0.3521 0.0496 0.4164 0.2437 0.4017
1.2119 36.0 3852 1.1897 0.2584 0.5229 0.2198 0.2584 -1.0 -1.0 0.2986 0.4575 0.4744 0.4744 -1.0 -1.0 0.5742 0.7383 0.2667 0.5159 0.1389 0.35 0.0448 0.3473 0.2676 0.4203
1.1686 37.0 3959 1.1441 0.2581 0.5164 0.2072 0.2581 -1.0 -1.0 0.3002 0.4712 0.4918 0.4918 -1.0 -1.0 0.5904 0.7642 0.2406 0.5238 0.1535 0.3708 0.0404 0.3945 0.2654 0.4056
1.1664 38.0 4066 1.1554 0.2618 0.546 0.204 0.2618 -1.0 -1.0 0.3078 0.4822 0.5069 0.5069 -1.0 -1.0 0.5674 0.734 0.2486 0.519 0.1922 0.3927 0.0409 0.4509 0.26 0.4379
1.1746 39.0 4173 1.1873 0.2514 0.5269 0.1995 0.2514 -1.0 -1.0 0.292 0.4628 0.4842 0.4842 -1.0 -1.0 0.5527 0.7235 0.2427 0.5127 0.1591 0.3448 0.0468 0.4218 0.2557 0.4181
1.1559 40.0 4280 1.1594 0.2652 0.5517 0.2014 0.2652 -1.0 -1.0 0.2955 0.4743 0.4885 0.4885 -1.0 -1.0 0.5685 0.7377 0.2624 0.5238 0.1852 0.3755 0.0505 0.3873 0.2595 0.4181
1.1668 41.0 4387 1.1562 0.2479 0.5294 0.1853 0.2479 -1.0 -1.0 0.2967 0.4772 0.4994 0.4994 -1.0 -1.0 0.5742 0.7272 0.217 0.5413 0.1492 0.3453 0.058 0.4709 0.2411 0.4124
1.1084 42.0 4494 1.1302 0.2634 0.5352 0.2094 0.2634 -1.0 -1.0 0.3135 0.4783 0.4945 0.4945 -1.0 -1.0 0.5847 0.7333 0.2335 0.5397 0.1653 0.3583 0.0484 0.4127 0.2851 0.4282
1.1118 43.0 4601 1.1270 0.2754 0.5506 0.2408 0.2754 -1.0 -1.0 0.3103 0.4789 0.4973 0.4973 -1.0 -1.0 0.5867 0.7364 0.2662 0.5476 0.1587 0.3682 0.0599 0.3855 0.3057 0.4486
1.1096 44.0 4708 1.1772 0.2611 0.5565 0.2002 0.2611 -1.0 -1.0 0.2873 0.4606 0.4755 0.4755 -1.0 -1.0 0.5739 0.7228 0.247 0.5143 0.1649 0.3516 0.081 0.4073 0.2389 0.3814
1.0741 45.0 4815 1.0871 0.2857 0.5718 0.2186 0.2857 -1.0 -1.0 0.3237 0.4934 0.5104 0.5104 -1.0 -1.0 0.5927 0.75 0.2775 0.5698 0.1899 0.3786 0.0781 0.4145 0.2904 0.439
1.0774 46.0 4922 1.1049 0.2684 0.5461 0.2197 0.2684 -1.0 -1.0 0.3112 0.4956 0.5115 0.5115 -1.0 -1.0 0.5979 0.7574 0.2552 0.5794 0.143 0.3677 0.062 0.4291 0.284 0.4237
1.0517 47.0 5029 1.1005 0.2806 0.5821 0.2184 0.2806 -1.0 -1.0 0.3112 0.4872 0.5048 0.5048 -1.0 -1.0 0.5861 0.7543 0.2862 0.5619 0.1749 0.4016 0.0737 0.3945 0.282 0.4119
1.0717 48.0 5136 1.0878 0.2956 0.5902 0.2492 0.2956 -1.0 -1.0 0.3146 0.4925 0.5089 0.5089 -1.0 -1.0 0.6128 0.7506 0.2813 0.5381 0.1947 0.4036 0.0849 0.4091 0.3041 0.4429
1.0578 49.0 5243 1.0932 0.2816 0.5671 0.2246 0.2816 -1.0 -1.0 0.3137 0.479 0.4943 0.4943 -1.0 -1.0 0.6069 0.7537 0.2616 0.4873 0.1947 0.4026 0.0613 0.3964 0.2835 0.4316
1.0367 50.0 5350 1.0784 0.2956 0.5813 0.2416 0.2956 -1.0 -1.0 0.3308 0.4864 0.4979 0.4979 -1.0 -1.0 0.6193 0.7642 0.2809 0.5143 0.1841 0.3854 0.0885 0.3891 0.3053 0.4367
1.0239 51.0 5457 1.0702 0.2893 0.5689 0.2387 0.2893 -1.0 -1.0 0.315 0.4944 0.5097 0.5097 -1.0 -1.0 0.5978 0.763 0.2656 0.5095 0.1887 0.3938 0.0817 0.4309 0.3125 0.4514
1.0127 52.0 5564 1.0771 0.2833 0.5713 0.243 0.2833 -1.0 -1.0 0.3184 0.4856 0.5075 0.5075 -1.0 -1.0 0.6007 0.7605 0.2649 0.5175 0.1843 0.3932 0.0766 0.4364 0.2902 0.4299
0.9948 53.0 5671 1.1039 0.2821 0.5628 0.2607 0.2821 -1.0 -1.0 0.3143 0.4954 0.5132 0.5132 -1.0 -1.0 0.6002 0.7599 0.2846 0.5587 0.1729 0.3693 0.0646 0.4582 0.2884 0.4198
1.0026 54.0 5778 1.1125 0.2811 0.5569 0.2461 0.2811 -1.0 -1.0 0.3166 0.4846 0.5019 0.5019 -1.0 -1.0 0.6118 0.7691 0.2617 0.5286 0.1762 0.376 0.0625 0.3964 0.2932 0.4395
1.0037 55.0 5885 1.1172 0.2819 0.5757 0.2532 0.2819 -1.0 -1.0 0.3089 0.4653 0.4811 0.4811 -1.0 -1.0 0.5869 0.7302 0.2946 0.5032 0.1914 0.388 0.0565 0.3745 0.2802 0.4096
0.9892 56.0 5992 1.0649 0.311 0.6027 0.2673 0.311 -1.0 -1.0 0.3226 0.4954 0.515 0.515 -1.0 -1.0 0.629 0.7679 0.2972 0.5556 0.198 0.3901 0.1233 0.4182 0.3075 0.4435
0.98 57.0 6099 1.0413 0.3137 0.6244 0.2912 0.3137 -1.0 -1.0 0.3293 0.5021 0.5171 0.5171 -1.0 -1.0 0.6288 0.7599 0.3193 0.5698 0.2062 0.399 0.1101 0.4236 0.3043 0.4333
0.9682 58.0 6206 1.0301 0.3128 0.6003 0.2801 0.3128 -1.0 -1.0 0.3278 0.4963 0.517 0.517 -1.0 -1.0 0.632 0.7704 0.3038 0.5238 0.2093 0.4203 0.1204 0.4164 0.2984 0.4542
0.9533 59.0 6313 1.0755 0.2928 0.5954 0.25 0.2928 -1.0 -1.0 0.3177 0.4937 0.5084 0.5084 -1.0 -1.0 0.6102 0.7401 0.2906 0.5635 0.1942 0.399 0.1002 0.4218 0.2688 0.4175
0.9589 60.0 6420 1.0364 0.3213 0.6182 0.2717 0.3213 -1.0 -1.0 0.3383 0.5121 0.5273 0.5273 -1.0 -1.0 0.622 0.7617 0.3318 0.5683 0.2273 0.4193 0.1243 0.4236 0.301 0.4638
0.9398 61.0 6527 1.0653 0.3089 0.6099 0.2673 0.3089 -1.0 -1.0 0.3325 0.4946 0.5046 0.5046 -1.0 -1.0 0.6166 0.7556 0.3144 0.5286 0.177 0.376 0.1451 0.4127 0.2915 0.4503
0.924 62.0 6634 1.0409 0.319 0.6335 0.2641 0.319 -1.0 -1.0 0.3437 0.5085 0.5234 0.5234 -1.0 -1.0 0.6223 0.7537 0.3263 0.5476 0.21 0.4021 0.1269 0.4582 0.3093 0.4554
0.924 63.0 6741 1.0517 0.3212 0.6485 0.2727 0.3212 -1.0 -1.0 0.3382 0.5109 0.5232 0.5232 -1.0 -1.0 0.6392 0.7704 0.3195 0.5857 0.1967 0.399 0.1268 0.4218 0.3241 0.439
0.9458 64.0 6848 1.0314 0.3213 0.6357 0.28 0.3213 -1.0 -1.0 0.3414 0.5152 0.5278 0.5278 -1.0 -1.0 0.6272 0.7648 0.3137 0.573 0.227 0.4078 0.1257 0.4545 0.3129 0.439
0.9136 65.0 6955 1.0237 0.3262 0.6377 0.284 0.3262 -1.0 -1.0 0.3489 0.5157 0.5299 0.5299 -1.0 -1.0 0.6277 0.766 0.3294 0.5587 0.2223 0.3958 0.13 0.4655 0.3216 0.4633
0.8969 66.0 7062 1.0190 0.3188 0.6478 0.2833 0.3188 -1.0 -1.0 0.3456 0.5153 0.528 0.528 -1.0 -1.0 0.6254 0.7704 0.3338 0.5762 0.187 0.3859 0.1258 0.4582 0.322 0.4492
0.8917 67.0 7169 0.9900 0.326 0.6304 0.281 0.326 -1.0 -1.0 0.354 0.5289 0.5382 0.5382 -1.0 -1.0 0.6478 0.7759 0.3118 0.5556 0.2245 0.4115 0.1149 0.4691 0.3312 0.4791
0.8724 68.0 7276 1.0181 0.3141 0.6119 0.2757 0.3141 -1.0 -1.0 0.3398 0.517 0.5303 0.5303 -1.0 -1.0 0.642 0.7716 0.3118 0.5778 0.2091 0.4177 0.096 0.4255 0.3116 0.4588
0.8881 69.0 7383 1.0231 0.3119 0.63 0.2566 0.3119 -1.0 -1.0 0.3438 0.507 0.5148 0.5148 -1.0 -1.0 0.6278 0.7556 0.3062 0.5476 0.2077 0.4052 0.0951 0.4073 0.3228 0.4582
0.8604 70.0 7490 1.0245 0.3266 0.6436 0.2621 0.3266 -1.0 -1.0 0.3448 0.5179 0.5273 0.5273 -1.0 -1.0 0.6251 0.7623 0.3301 0.5889 0.2223 0.4115 0.1406 0.4255 0.315 0.4486
0.86 71.0 7597 1.0249 0.3226 0.6426 0.2709 0.3226 -1.0 -1.0 0.3442 0.5201 0.5325 0.5325 -1.0 -1.0 0.6353 0.7716 0.3171 0.6032 0.2233 0.4177 0.1289 0.4236 0.3082 0.4463
0.8452 72.0 7704 1.0383 0.3225 0.6364 0.2629 0.3225 -1.0 -1.0 0.344 0.5124 0.5223 0.5223 -1.0 -1.0 0.6375 0.7728 0.322 0.5794 0.2082 0.399 0.1443 0.4291 0.3003 0.4311
0.8444 73.0 7811 1.0018 0.3312 0.6454 0.2914 0.3312 -1.0 -1.0 0.3558 0.5223 0.535 0.535 -1.0 -1.0 0.6395 0.771 0.3471 0.5841 0.2158 0.4182 0.1433 0.4345 0.3105 0.4672
0.8325 74.0 7918 1.0412 0.3296 0.6574 0.272 0.3296 -1.0 -1.0 0.3404 0.5203 0.5312 0.5312 -1.0 -1.0 0.6449 0.7722 0.3422 0.6032 0.2302 0.4125 0.1352 0.4509 0.2956 0.4169
0.8438 75.0 8025 1.0015 0.34 0.6482 0.3027 0.34 -1.0 -1.0 0.3487 0.5211 0.5333 0.5333 -1.0 -1.0 0.6449 0.7691 0.3555 0.5968 0.2324 0.4172 0.1427 0.4382 0.3248 0.4452
0.8197 76.0 8132 1.0196 0.3426 0.6544 0.2931 0.3426 -1.0 -1.0 0.356 0.5234 0.5347 0.5347 -1.0 -1.0 0.6443 0.7722 0.35 0.5794 0.2465 0.4172 0.1434 0.4455 0.3288 0.4593
0.8241 77.0 8239 1.0215 0.339 0.6531 0.3012 0.339 -1.0 -1.0 0.3523 0.5162 0.5279 0.5279 -1.0 -1.0 0.6411 0.771 0.3486 0.5921 0.2324 0.4073 0.1375 0.4091 0.3357 0.4599
0.8019 78.0 8346 1.0356 0.3265 0.6279 0.2799 0.3265 -1.0 -1.0 0.3503 0.5169 0.5264 0.5264 -1.0 -1.0 0.639 0.771 0.3313 0.5762 0.2315 0.413 0.1144 0.4127 0.3162 0.4593
0.8113 79.0 8453 1.0087 0.3377 0.6556 0.3059 0.3377 -1.0 -1.0 0.3487 0.5269 0.5369 0.5369 -1.0 -1.0 0.6396 0.7765 0.3392 0.5873 0.2336 0.4068 0.1513 0.4564 0.3249 0.4576
0.8043 80.0 8560 1.0225 0.3351 0.6526 0.3035 0.3351 -1.0 -1.0 0.3485 0.5177 0.5285 0.5285 -1.0 -1.0 0.6529 0.7827 0.331 0.5778 0.2224 0.399 0.1421 0.4255 0.3273 0.4576
0.7909 81.0 8667 1.0009 0.345 0.6563 0.3086 0.345 -1.0 -1.0 0.3512 0.522 0.5359 0.5359 -1.0 -1.0 0.6649 0.7877 0.3589 0.5714 0.2366 0.4219 0.1374 0.4418 0.3272 0.4565
0.8034 82.0 8774 1.0006 0.333 0.6455 0.295 0.333 -1.0 -1.0 0.3529 0.5257 0.5369 0.5369 -1.0 -1.0 0.6387 0.7741 0.3352 0.5873 0.2342 0.4208 0.1362 0.4491 0.3206 0.4531
0.7744 83.0 8881 0.9946 0.341 0.6513 0.3182 0.341 -1.0 -1.0 0.3615 0.5273 0.5381 0.5381 -1.0 -1.0 0.6425 0.7778 0.3636 0.5873 0.2404 0.4198 0.1246 0.4418 0.3341 0.4638
0.7769 84.0 8988 0.9994 0.3406 0.6523 0.3009 0.3406 -1.0 -1.0 0.3637 0.5304 0.5384 0.5384 -1.0 -1.0 0.6478 0.7728 0.3472 0.5968 0.2355 0.4198 0.1444 0.4382 0.3281 0.4644
0.7679 85.0 9095 1.0170 0.3397 0.6549 0.2888 0.3397 -1.0 -1.0 0.3624 0.5301 0.5407 0.5407 -1.0 -1.0 0.6485 0.7685 0.3431 0.6079 0.2294 0.4167 0.1607 0.46 0.317 0.4503
0.772 86.0 9202 0.9953 0.3515 0.6722 0.3099 0.3515 -1.0 -1.0 0.3674 0.5331 0.543 0.543 -1.0 -1.0 0.6599 0.7778 0.3692 0.6032 0.24 0.4187 0.1523 0.46 0.3361 0.4554
0.783 87.0 9309 1.0003 0.3401 0.6545 0.2943 0.3401 -1.0 -1.0 0.3603 0.5309 0.5457 0.5457 -1.0 -1.0 0.651 0.7759 0.3521 0.6222 0.2296 0.4161 0.1433 0.46 0.3246 0.4542
0.7508 88.0 9416 0.9849 0.3517 0.6734 0.3217 0.3517 -1.0 -1.0 0.362 0.5333 0.5447 0.5447 -1.0 -1.0 0.6572 0.7747 0.369 0.5984 0.2439 0.4318 0.1503 0.4527 0.338 0.4661
0.7558 89.0 9523 0.9861 0.3517 0.6749 0.3173 0.3517 -1.0 -1.0 0.3628 0.5329 0.5408 0.5408 -1.0 -1.0 0.6469 0.7728 0.3661 0.5889 0.2323 0.4104 0.1747 0.4709 0.3385 0.461
0.7398 90.0 9630 0.9966 0.3565 0.6784 0.315 0.3565 -1.0 -1.0 0.3621 0.5367 0.5484 0.5484 -1.0 -1.0 0.6524 0.7796 0.3655 0.6127 0.2374 0.4151 0.1769 0.4655 0.3503 0.4689
0.7532 91.0 9737 0.9883 0.354 0.6709 0.3179 0.354 -1.0 -1.0 0.3623 0.5395 0.5475 0.5475 -1.0 -1.0 0.6551 0.779 0.3669 0.6175 0.2432 0.4187 0.1545 0.4564 0.3502 0.4661
0.7417 92.0 9844 0.9932 0.3557 0.6777 0.3131 0.3557 -1.0 -1.0 0.3629 0.5361 0.5465 0.5465 -1.0 -1.0 0.6566 0.7765 0.3713 0.6143 0.2425 0.4224 0.163 0.4491 0.3451 0.4701
0.7554 93.0 9951 0.9921 0.3598 0.6841 0.3212 0.3598 -1.0 -1.0 0.3643 0.5375 0.5466 0.5466 -1.0 -1.0 0.6591 0.7821 0.3696 0.5952 0.2482 0.4214 0.175 0.4691 0.3469 0.465
0.7339 94.0 10058 1.0049 0.3587 0.6838 0.3184 0.3587 -1.0 -1.0 0.3668 0.5347 0.5447 0.5447 -1.0 -1.0 0.658 0.7753 0.3767 0.6048 0.2434 0.4177 0.1744 0.46 0.3411 0.4655
0.7184 95.0 10165 0.9969 0.3547 0.6739 0.3214 0.3547 -1.0 -1.0 0.3633 0.5353 0.5449 0.5449 -1.0 -1.0 0.6521 0.7722 0.369 0.6079 0.2402 0.413 0.1707 0.4673 0.3412 0.4638
0.7448 96.0 10272 0.9925 0.3556 0.6708 0.3061 0.3556 -1.0 -1.0 0.365 0.5327 0.544 0.544 -1.0 -1.0 0.6517 0.7765 0.3707 0.6016 0.2354 0.4208 0.1781 0.4527 0.3421 0.4684
0.7264 97.0 10379 0.9914 0.3576 0.6793 0.315 0.3576 -1.0 -1.0 0.3657 0.5332 0.5439 0.5439 -1.0 -1.0 0.6517 0.7753 0.378 0.6 0.2464 0.426 0.1707 0.4545 0.3414 0.4638
0.7455 98.0 10486 0.9829 0.3586 0.6794 0.3132 0.3586 -1.0 -1.0 0.367 0.5353 0.5473 0.5473 -1.0 -1.0 0.6586 0.7772 0.3781 0.6079 0.2468 0.4266 0.1742 0.4582 0.3355 0.4667
0.7105 99.0 10593 0.9862 0.3577 0.6795 0.3089 0.3577 -1.0 -1.0 0.3649 0.5352 0.5476 0.5476 -1.0 -1.0 0.6591 0.7778 0.3712 0.6032 0.2481 0.4271 0.1727 0.4655 0.3376 0.4644
0.7089 100.0 10700 0.9865 0.3578 0.6781 0.3105 0.3578 -1.0 -1.0 0.365 0.535 0.5483 0.5483 -1.0 -1.0 0.6584 0.7772 0.3691 0.6063 0.2477 0.4266 0.1766 0.4655 0.3371 0.4661

Framework versions

  • Transformers 4.40.0.dev0
  • Pytorch 1.13.0+cu117
  • Datasets 2.18.0
  • Tokenizers 0.19.0
Downloads last month
3,299
Safetensors
Model size
41.6M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for qubvel-hf/detr-resnet-50-finetuned-10k-cppe5

Finetuned
(428)
this model

Dataset used to train qubvel-hf/detr-resnet-50-finetuned-10k-cppe5