Edit model card

segformer-b0-finetuned-xorder-dish-segmentation-trial

This model is a fine-tuned version of nvidia/mit-b0 on the vhug/xorder_dish dataset. It achieves the following results on the evaluation set:

  • Loss: 0.0061
  • Mean Iou: 0.0
  • Mean Accuracy: nan
  • Overall Accuracy: nan
  • Accuracy Object: nan
  • Iou Object: 0.0

Model description

More information needed

Intended uses & limitations

More information needed

Training and evaluation data

More information needed

Training procedure

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 6e-05
  • train_batch_size: 2
  • eval_batch_size: 2
  • seed: 42
  • optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
  • lr_scheduler_type: linear
  • num_epochs: 50

Training results

Training Loss Epoch Step Validation Loss Mean Iou Mean Accuracy Overall Accuracy Accuracy Object Iou Object
0.2499 0.24 20 0.4007 0.0 nan nan nan 0.0
0.1703 0.49 40 0.1925 0.0 nan nan nan 0.0
0.1665 0.73 60 0.1499 0.0 nan nan nan 0.0
0.1813 0.98 80 0.1669 0.0 nan nan nan 0.0
0.139 1.22 100 0.1323 0.0 nan nan nan 0.0
0.1336 1.46 120 0.1200 0.0 nan nan nan 0.0
0.0994 1.71 140 0.1078 0.0 nan nan nan 0.0
0.1125 1.95 160 0.0983 0.0 nan nan nan 0.0
0.0945 2.2 180 0.0879 0.0 nan nan nan 0.0
0.1448 2.44 200 0.0839 0.0 nan nan nan 0.0
0.0715 2.68 220 0.0756 0.0 nan nan nan 0.0
0.0901 2.93 240 0.0727 0.0 nan nan nan 0.0
0.0959 3.17 260 0.0615 0.0 nan nan nan 0.0
0.0609 3.41 280 0.0676 0.0 nan nan nan 0.0
0.0478 3.66 300 0.0545 0.0 nan nan nan 0.0
0.0899 3.9 320 0.0534 0.0 nan nan nan 0.0
0.0632 4.15 340 0.0509 0.0 nan nan nan 0.0
0.0601 4.39 360 0.0389 0.0 nan nan nan 0.0
0.0422 4.63 380 0.0549 0.0 nan nan nan 0.0
0.0526 4.88 400 0.0470 0.0 nan nan nan 0.0
0.0418 5.12 420 0.0410 0.0 nan nan nan 0.0
0.0505 5.37 440 0.0389 0.0 nan nan nan 0.0
0.0602 5.61 460 0.0417 0.0 nan nan nan 0.0
0.0292 5.85 480 0.0351 0.0 nan nan nan 0.0
0.0433 6.1 500 0.0327 0.0 nan nan nan 0.0
0.0478 6.34 520 0.0336 0.0 nan nan nan 0.0
0.0253 6.59 540 0.0310 0.0 nan nan nan 0.0
0.0486 6.83 560 0.0297 0.0 nan nan nan 0.0
0.0426 7.07 580 0.0320 0.0 nan nan nan 0.0
0.0253 7.32 600 0.0268 0.0 nan nan nan 0.0
0.0445 7.56 620 0.0299 0.0 nan nan nan 0.0
0.0252 7.8 640 0.0277 0.0 nan nan nan 0.0
0.0327 8.05 660 0.0246 0.0 nan nan nan 0.0
0.0258 8.29 680 0.0261 0.0 nan nan nan 0.0
0.0216 8.54 700 0.0249 0.0 nan nan nan 0.0
0.0206 8.78 720 0.0223 0.0 nan nan nan 0.0
0.0205 9.02 740 0.0223 0.0 nan nan nan 0.0
0.0204 9.27 760 0.0214 0.0 nan nan nan 0.0
0.0392 9.51 780 0.0205 0.0 nan nan nan 0.0
0.0304 9.76 800 0.0211 0.0 nan nan nan 0.0
0.0225 10.0 820 0.0203 0.0 nan nan nan 0.0
0.0154 10.24 840 0.0189 0.0 nan nan nan 0.0
0.0179 10.49 860 0.0178 0.0 nan nan nan 0.0
0.0319 10.73 880 0.0185 0.0 nan nan nan 0.0
0.0148 10.98 900 0.0181 0.0 nan nan nan 0.0
0.0204 11.22 920 0.0174 0.0 nan nan nan 0.0
0.0197 11.46 940 0.0182 0.0 nan nan nan 0.0
0.0173 11.71 960 0.0162 0.0 nan nan nan 0.0
0.0209 11.95 980 0.0174 0.0 nan nan nan 0.0
0.0251 12.2 1000 0.0159 0.0 nan nan nan 0.0
0.0173 12.44 1020 0.0165 0.0 nan nan nan 0.0
0.0153 12.68 1040 0.0141 0.0 nan nan nan 0.0
0.0166 12.93 1060 0.0163 0.0 nan nan nan 0.0
0.0394 13.17 1080 0.0158 0.0 nan nan nan 0.0
0.013 13.41 1100 0.0140 0.0 nan nan nan 0.0
0.0141 13.66 1120 0.0138 0.0 nan nan nan 0.0
0.0199 13.9 1140 0.0148 0.0 nan nan nan 0.0
0.0132 14.15 1160 0.0130 0.0 nan nan nan 0.0
0.0289 14.39 1180 0.0141 0.0 nan nan nan 0.0
0.0141 14.63 1200 0.0136 0.0 nan nan nan 0.0
0.0131 14.88 1220 0.0143 0.0 nan nan nan 0.0
0.0116 15.12 1240 0.0124 0.0 nan nan nan 0.0
0.0138 15.37 1260 0.0124 0.0 nan nan nan 0.0
0.0119 15.61 1280 0.0121 0.0 nan nan nan 0.0
0.018 15.85 1300 0.0138 0.0 nan nan nan 0.0
0.0142 16.1 1320 0.0119 0.0 nan nan nan 0.0
0.01 16.34 1340 0.0119 0.0 nan nan nan 0.0
0.0133 16.59 1360 0.0124 0.0 nan nan nan 0.0
0.0104 16.83 1380 0.0113 0.0 nan nan nan 0.0
0.0142 17.07 1400 0.0117 0.0 nan nan nan 0.0
0.0114 17.32 1420 0.0121 0.0 nan nan nan 0.0
0.0131 17.56 1440 0.0112 0.0 nan nan nan 0.0
0.0105 17.8 1460 0.0111 0.0 nan nan nan 0.0
0.0096 18.05 1480 0.0115 0.0 nan nan nan 0.0
0.0127 18.29 1500 0.0117 0.0 nan nan nan 0.0
0.0094 18.54 1520 0.0106 0.0 nan nan nan 0.0
0.0091 18.78 1540 0.0107 0.0 nan nan nan 0.0
0.0099 19.02 1560 0.0106 0.0 nan nan nan 0.0
0.0105 19.27 1580 0.0106 0.0 nan nan nan 0.0
0.0082 19.51 1600 0.0095 0.0 nan nan nan 0.0
0.0095 19.76 1620 0.0097 0.0 nan nan nan 0.0
0.0089 20.0 1640 0.0096 0.0 nan nan nan 0.0
0.0092 20.24 1660 0.0096 0.0 nan nan nan 0.0
0.0259 20.49 1680 0.0100 0.0 nan nan nan 0.0
0.0152 20.73 1700 0.0101 0.0 nan nan nan 0.0
0.0108 20.98 1720 0.0096 0.0 nan nan nan 0.0
0.009 21.22 1740 0.0094 0.0 nan nan nan 0.0
0.0116 21.46 1760 0.0099 0.0 nan nan nan 0.0
0.0094 21.71 1780 0.0095 0.0 nan nan nan 0.0
0.012 21.95 1800 0.0098 0.0 nan nan nan 0.0
0.0079 22.2 1820 0.0094 0.0 nan nan nan 0.0
0.0074 22.44 1840 0.0093 0.0 nan nan nan 0.0
0.0088 22.68 1860 0.0088 0.0 nan nan nan 0.0
0.0178 22.93 1880 0.0096 0.0 nan nan nan 0.0
0.0103 23.17 1900 0.0090 0.0 nan nan nan 0.0
0.0117 23.41 1920 0.0086 0.0 nan nan nan 0.0
0.0144 23.66 1940 0.0091 0.0 nan nan nan 0.0
0.0086 23.9 1960 0.0088 0.0 nan nan nan 0.0
0.0118 24.15 1980 0.0093 0.0 nan nan nan 0.0
0.0103 24.39 2000 0.0098 0.0 nan nan nan 0.0
0.0094 24.63 2020 0.0085 0.0 nan nan nan 0.0
0.0069 24.88 2040 0.0087 0.0 nan nan nan 0.0
0.0118 25.12 2060 0.0087 0.0 nan nan nan 0.0
0.0076 25.37 2080 0.0082 0.0 nan nan nan 0.0
0.0093 25.61 2100 0.0082 0.0 nan nan nan 0.0
0.0091 25.85 2120 0.0082 0.0 nan nan nan 0.0
0.017 26.1 2140 0.0085 0.0 nan nan nan 0.0
0.0067 26.34 2160 0.0087 0.0 nan nan nan 0.0
0.0072 26.59 2180 0.0081 0.0 nan nan nan 0.0
0.007 26.83 2200 0.0084 0.0 nan nan nan 0.0
0.0099 27.07 2220 0.0083 0.0 nan nan nan 0.0
0.0101 27.32 2240 0.0084 0.0 nan nan nan 0.0
0.0073 27.56 2260 0.0084 0.0 nan nan nan 0.0
0.0079 27.8 2280 0.0076 0.0 nan nan nan 0.0
0.0071 28.05 2300 0.0077 0.0 nan nan nan 0.0
0.0069 28.29 2320 0.0074 0.0 nan nan nan 0.0
0.0091 28.54 2340 0.0084 0.0 nan nan nan 0.0
0.008 28.78 2360 0.0081 0.0 nan nan nan 0.0
0.0069 29.02 2380 0.0079 0.0 nan nan nan 0.0
0.0079 29.27 2400 0.0073 0.0 nan nan nan 0.0
0.0102 29.51 2420 0.0077 0.0 nan nan nan 0.0
0.0074 29.76 2440 0.0079 0.0 nan nan nan 0.0
0.0096 30.0 2460 0.0076 0.0 nan nan nan 0.0
0.0093 30.24 2480 0.0078 0.0 nan nan nan 0.0
0.0052 30.49 2500 0.0073 0.0 nan nan nan 0.0
0.0072 30.73 2520 0.0078 0.0 nan nan nan 0.0
0.0066 30.98 2540 0.0073 0.0 nan nan nan 0.0
0.0077 31.22 2560 0.0076 0.0 nan nan nan 0.0
0.0073 31.46 2580 0.0073 0.0 nan nan nan 0.0
0.0064 31.71 2600 0.0073 0.0 nan nan nan 0.0
0.0063 31.95 2620 0.0072 0.0 nan nan nan 0.0
0.0055 32.2 2640 0.0069 0.0 nan nan nan 0.0
0.0081 32.44 2660 0.0075 0.0 nan nan nan 0.0
0.0149 32.68 2680 0.0076 0.0 nan nan nan 0.0
0.0107 32.93 2700 0.0071 0.0 nan nan nan 0.0
0.007 33.17 2720 0.0071 0.0 nan nan nan 0.0
0.0061 33.41 2740 0.0073 0.0 nan nan nan 0.0
0.0092 33.66 2760 0.0076 0.0 nan nan nan 0.0
0.0069 33.9 2780 0.0068 0.0 nan nan nan 0.0
0.0059 34.15 2800 0.0069 0.0 nan nan nan 0.0
0.0081 34.39 2820 0.0069 0.0 nan nan nan 0.0
0.009 34.63 2840 0.0072 0.0 nan nan nan 0.0
0.0068 34.88 2860 0.0070 0.0 nan nan nan 0.0
0.0069 35.12 2880 0.0068 0.0 nan nan nan 0.0
0.0053 35.37 2900 0.0069 0.0 nan nan nan 0.0
0.0086 35.61 2920 0.0072 0.0 nan nan nan 0.0
0.0062 35.85 2940 0.0069 0.0 nan nan nan 0.0
0.0062 36.1 2960 0.0071 0.0 nan nan nan 0.0
0.0052 36.34 2980 0.0067 0.0 nan nan nan 0.0
0.0064 36.59 3000 0.0068 0.0 nan nan nan 0.0
0.0048 36.83 3020 0.0070 0.0 nan nan nan 0.0
0.0076 37.07 3040 0.0073 0.0 nan nan nan 0.0
0.0098 37.32 3060 0.0067 0.0 nan nan nan 0.0
0.0071 37.56 3080 0.0069 0.0 nan nan nan 0.0
0.0067 37.8 3100 0.0071 0.0 nan nan nan 0.0
0.0072 38.05 3120 0.0067 0.0 nan nan nan 0.0
0.0076 38.29 3140 0.0070 0.0 nan nan nan 0.0
0.0053 38.54 3160 0.0069 0.0 nan nan nan 0.0
0.0064 38.78 3180 0.0068 0.0 nan nan nan 0.0
0.0057 39.02 3200 0.0067 0.0 nan nan nan 0.0
0.0063 39.27 3220 0.0067 0.0 nan nan nan 0.0
0.0063 39.51 3240 0.0065 0.0 nan nan nan 0.0
0.0086 39.76 3260 0.0069 0.0 nan nan nan 0.0
0.0056 40.0 3280 0.0066 0.0 nan nan nan 0.0
0.005 40.24 3300 0.0065 0.0 nan nan nan 0.0
0.0058 40.49 3320 0.0064 0.0 nan nan nan 0.0
0.0047 40.73 3340 0.0066 0.0 nan nan nan 0.0
0.0064 40.98 3360 0.0067 0.0 nan nan nan 0.0
0.0087 41.22 3380 0.0068 0.0 nan nan nan 0.0
0.0054 41.46 3400 0.0068 0.0 nan nan nan 0.0
0.0058 41.71 3420 0.0065 0.0 nan nan nan 0.0
0.0058 41.95 3440 0.0064 0.0 nan nan nan 0.0
0.0054 42.2 3460 0.0065 0.0 nan nan nan 0.0
0.0055 42.44 3480 0.0063 0.0 nan nan nan 0.0
0.0047 42.68 3500 0.0066 0.0 nan nan nan 0.0
0.0075 42.93 3520 0.0065 0.0 nan nan nan 0.0
0.0052 43.17 3540 0.0064 0.0 nan nan nan 0.0
0.0062 43.41 3560 0.0067 0.0 nan nan nan 0.0
0.0062 43.66 3580 0.0062 0.0 nan nan nan 0.0
0.0091 43.9 3600 0.0064 0.0 nan nan nan 0.0
0.0061 44.15 3620 0.0062 0.0 nan nan nan 0.0
0.0047 44.39 3640 0.0065 0.0 nan nan nan 0.0
0.0056 44.63 3660 0.0062 0.0 nan nan nan 0.0
0.005 44.88 3680 0.0065 0.0 nan nan nan 0.0
0.005 45.12 3700 0.0064 0.0 nan nan nan 0.0
0.0053 45.37 3720 0.0066 0.0 nan nan nan 0.0
0.0074 45.61 3740 0.0065 0.0 nan nan nan 0.0
0.007 45.85 3760 0.0062 0.0 nan nan nan 0.0
0.0047 46.1 3780 0.0063 0.0 nan nan nan 0.0
0.0047 46.34 3800 0.0061 0.0 nan nan nan 0.0
0.0058 46.59 3820 0.0062 0.0 nan nan nan 0.0
0.0064 46.83 3840 0.0067 0.0 nan nan nan 0.0
0.0044 47.07 3860 0.0063 0.0 nan nan nan 0.0
0.0049 47.32 3880 0.0062 0.0 nan nan nan 0.0
0.0091 47.56 3900 0.0065 0.0 nan nan nan 0.0
0.0046 47.8 3920 0.0064 0.0 nan nan nan 0.0
0.0055 48.05 3940 0.0063 0.0 nan nan nan 0.0
0.0045 48.29 3960 0.0062 0.0 nan nan nan 0.0
0.006 48.54 3980 0.0064 0.0 nan nan nan 0.0
0.0074 48.78 4000 0.0066 0.0 nan nan nan 0.0
0.0046 49.02 4020 0.0064 0.0 nan nan nan 0.0
0.006 49.27 4040 0.0063 0.0 nan nan nan 0.0
0.0057 49.51 4060 0.0068 0.0 nan nan nan 0.0
0.0069 49.76 4080 0.0066 0.0 nan nan nan 0.0
0.0064 50.0 4100 0.0061 0.0 nan nan nan 0.0

Framework versions

  • Transformers 4.28.1
  • Pytorch 2.0.0+cu118
  • Datasets 2.11.0
  • Tokenizers 0.13.3
Downloads last month
2
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.