Edit model card

parking-terrain_marks

This model is a fine-tuned version of nvidia/mit-b5 on the sam1120/parking-terrain_marks dataset. It achieves the following results on the evaluation set:

  • Loss: 0.0863
  • Mean Iou: 0.4942
  • Mean Accuracy: 0.5
  • Overall Accuracy: 0.9884
  • Accuracy Unlabeled: nan
  • Accuracy Parking Lines: 0.0
  • Accuracy X: nan
  • Accuracy Else: 1.0
  • Iou Unlabeled: nan
  • Iou Parking Lines: 0.0
  • Iou X: nan
  • Iou Else: 0.9884

Model description

More information needed

Intended uses & limitations

More information needed

Training and evaluation data

More information needed

Training procedure

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 5e-05
  • train_batch_size: 16
  • eval_batch_size: 16
  • seed: 42
  • optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
  • lr_scheduler_type: linear
  • lr_scheduler_warmup_ratio: 0.05
  • num_epochs: 600

Training results

Training Loss Epoch Step Validation Loss Mean Iou Mean Accuracy Overall Accuracy Accuracy Unlabeled Accuracy Parking Lines Accuracy X Accuracy Else Iou Unlabeled Iou Parking Lines Iou X Iou Else
1.2973 5.0 20 1.2461 0.1512 0.5627 0.5883 nan 0.5364 nan 0.5889 0.0 0.0186 0.0 0.5860
0.9991 10.0 40 0.8866 0.2256 0.4644 0.8974 nan 0.0211 nan 0.9077 0.0 0.0037 0.0 0.8985
0.5964 15.0 60 0.4795 0.3290 0.4992 0.9869 nan 0.0 nan 0.9985 nan 0.0 0.0 0.9869
0.3788 20.0 80 0.2324 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.1288 25.0 100 0.1424 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.066 30.0 120 0.0909 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0716 35.0 140 0.0799 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0448 40.0 160 0.0792 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0281 45.0 180 0.0698 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0279 50.0 200 0.0695 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0306 55.0 220 0.0679 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0245 60.0 240 0.0683 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0196 65.0 260 0.0676 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0267 70.0 280 0.0661 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0192 75.0 300 0.0672 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0207 80.0 320 0.0697 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0168 85.0 340 0.0692 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0114 90.0 360 0.0676 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.014 95.0 380 0.0669 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0147 100.0 400 0.0687 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0101 105.0 420 0.0681 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0118 110.0 440 0.0664 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0111 115.0 460 0.0690 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0088 120.0 480 0.0704 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0116 125.0 500 0.0694 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.011 130.0 520 0.0677 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0128 135.0 540 0.0703 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0101 140.0 560 0.0706 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0096 145.0 580 0.0674 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0125 150.0 600 0.0725 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0073 155.0 620 0.0709 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0104 160.0 640 0.0716 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0085 165.0 660 0.0727 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.008 170.0 680 0.0749 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0088 175.0 700 0.0774 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0076 180.0 720 0.0761 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0069 185.0 740 0.0748 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0059 190.0 760 0.0745 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0092 195.0 780 0.0758 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0081 200.0 800 0.0784 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0078 205.0 820 0.0749 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0054 210.0 840 0.0758 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0094 215.0 860 0.0772 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0072 220.0 880 0.0765 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.008 225.0 900 0.0775 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0064 230.0 920 0.0797 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0063 235.0 940 0.0734 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0096 240.0 960 0.0778 0.4949 0.5007 0.9884 nan 0.0013 nan 1.0 nan 0.0013 nan 0.9884
0.0066 245.0 980 0.0740 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0061 250.0 1000 0.0652 0.4944 0.5002 0.9884 nan 0.0003 nan 1.0 nan 0.0003 nan 0.9884
0.0066 255.0 1020 0.0721 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0076 260.0 1040 0.0690 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0065 265.0 1060 0.0702 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0065 270.0 1080 0.0718 0.4944 0.5002 0.9884 nan 0.0003 nan 1.0 nan 0.0003 nan 0.9884
0.0061 275.0 1100 0.0732 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0064 280.0 1120 0.0737 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0056 285.0 1140 0.0714 0.4945 0.5003 0.9884 nan 0.0007 nan 1.0 nan 0.0007 nan 0.9884
0.0053 290.0 1160 0.0754 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0055 295.0 1180 0.0751 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0068 300.0 1200 0.0754 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0053 305.0 1220 0.0723 0.4952 0.5010 0.9884 nan 0.0020 nan 1.0 nan 0.0020 nan 0.9884
0.0053 310.0 1240 0.0767 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0045 315.0 1260 0.0767 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.007 320.0 1280 0.0750 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.005 325.0 1300 0.0777 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0053 330.0 1320 0.0762 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0049 335.0 1340 0.0782 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.006 340.0 1360 0.0770 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0066 345.0 1380 0.0787 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0049 350.0 1400 0.0765 0.4944 0.5002 0.9884 nan 0.0003 nan 1.0 nan 0.0003 nan 0.9884
0.0067 355.0 1420 0.0672 0.5030 0.5087 0.9886 nan 0.0175 nan 1.0 nan 0.0175 nan 0.9886
0.0036 360.0 1440 0.0778 0.4949 0.5007 0.9884 nan 0.0013 nan 1.0 nan 0.0013 nan 0.9884
0.0045 365.0 1460 0.0762 0.4950 0.5008 0.9884 nan 0.0016 nan 1.0 nan 0.0016 nan 0.9884
0.006 370.0 1480 0.0763 0.4952 0.5010 0.9884 nan 0.0020 nan 1.0 nan 0.0020 nan 0.9884
0.006 375.0 1500 0.0757 0.4967 0.5025 0.9885 nan 0.0049 nan 1.0 nan 0.0049 nan 0.9885
0.0043 380.0 1520 0.0800 0.4950 0.5008 0.9884 nan 0.0016 nan 1.0 nan 0.0016 nan 0.9884
0.0057 385.0 1540 0.0790 0.4950 0.5008 0.9884 nan 0.0016 nan 1.0 nan 0.0016 nan 0.9884
0.0061 390.0 1560 0.0814 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0041 395.0 1580 0.0811 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0038 400.0 1600 0.0792 0.4945 0.5003 0.9884 nan 0.0007 nan 1.0 nan 0.0007 nan 0.9884
0.0047 405.0 1620 0.0816 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0051 410.0 1640 0.0821 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0035 415.0 1660 0.0804 0.4944 0.5002 0.9884 nan 0.0003 nan 1.0 nan 0.0003 nan 0.9884
0.0053 420.0 1680 0.0826 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0052 425.0 1700 0.0806 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0037 430.0 1720 0.0824 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0045 435.0 1740 0.0839 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0049 440.0 1760 0.0836 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0036 445.0 1780 0.0826 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0036 450.0 1800 0.0845 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.004 455.0 1820 0.0840 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0048 460.0 1840 0.0839 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0044 465.0 1860 0.0853 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.004 470.0 1880 0.0854 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0051 475.0 1900 0.0852 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0049 480.0 1920 0.0851 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0048 485.0 1940 0.0854 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0045 490.0 1960 0.0849 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0043 495.0 1980 0.0858 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0038 500.0 2000 0.0853 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0044 505.0 2020 0.0857 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0036 510.0 2040 0.0849 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0038 515.0 2060 0.0845 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0047 520.0 2080 0.0851 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0045 525.0 2100 0.0851 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0056 530.0 2120 0.0851 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0041 535.0 2140 0.0859 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.004 540.0 2160 0.0867 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0054 545.0 2180 0.0862 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0047 550.0 2200 0.0873 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0048 555.0 2220 0.0869 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0045 560.0 2240 0.0865 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0049 565.0 2260 0.0861 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.005 570.0 2280 0.0856 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0043 575.0 2300 0.0855 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0031 580.0 2320 0.0866 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0033 585.0 2340 0.0872 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0046 590.0 2360 0.0865 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0051 595.0 2380 0.0862 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884
0.0047 600.0 2400 0.0863 0.4942 0.5 0.9884 nan 0.0 nan 1.0 nan 0.0 nan 0.9884

Framework versions

  • Transformers 4.30.2
  • Pytorch 2.0.1+cu117
  • Datasets 2.13.1
  • Tokenizers 0.13.3
Downloads last month
5