Edit model card

segformer-b0-finetuned-segments-docboundary-dec-15-88_images

This model is a fine-tuned version of nvidia/mit-b0 on the vigneshgs7/Boundary_detection_Doc dataset. It achieves the following results on the evaluation set:

  • Loss: 0.0210
  • Mean Iou: 0.0
  • Mean Accuracy: nan
  • Overall Accuracy: nan
  • Accuracy Object: nan
  • Iou Object: 0.0

Model description

More information needed

Intended uses & limitations

More information needed

Training and evaluation data

More information needed

Training procedure

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 6e-05
  • train_batch_size: 2
  • eval_batch_size: 2
  • seed: 42
  • optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
  • lr_scheduler_type: linear
  • num_epochs: 100

Training results

Training Loss Epoch Step Validation Loss Mean Iou Mean Accuracy Overall Accuracy Accuracy Object Iou Object
0.2271 0.57 20 0.2264 0.0 nan nan nan 0.0
0.2259 1.14 40 0.2250 0.0 nan nan nan 0.0
0.2206 1.71 60 0.1485 0.0 nan nan nan 0.0
0.1746 2.29 80 0.1454 0.0 nan nan nan 0.0
0.15 2.86 100 0.1346 0.0 nan nan nan 0.0
0.1664 3.43 120 0.1256 0.0 nan nan nan 0.0
0.1592 4.0 140 0.1174 0.0 nan nan nan 0.0
0.1315 4.57 160 0.1162 0.0 nan nan nan 0.0
0.1175 5.14 180 0.0957 0.0 nan nan nan 0.0
0.104 5.71 200 0.0987 0.0 nan nan nan 0.0
0.1028 6.29 220 0.0922 0.0 nan nan nan 0.0
0.0961 6.86 240 0.0882 0.0 nan nan nan 0.0
0.0969 7.43 260 0.0781 0.0 nan nan nan 0.0
0.0965 8.0 280 0.0699 0.0 nan nan nan 0.0
0.0782 8.57 300 0.0708 0.0 nan nan nan 0.0
0.0852 9.14 320 0.0692 0.0 nan nan nan 0.0
0.071 9.71 340 0.0664 0.0 nan nan nan 0.0
0.0647 10.29 360 0.0635 0.0 nan nan nan 0.0
0.0639 10.86 380 0.0586 0.0 nan nan nan 0.0
0.0598 11.43 400 0.0582 0.0 nan nan nan 0.0
0.0642 12.0 420 0.0544 0.0 nan nan nan 0.0
0.0562 12.57 440 0.0558 0.0 nan nan nan 0.0
0.0554 13.14 460 0.0536 0.0 nan nan nan 0.0
0.0597 13.71 480 0.0458 0.0 nan nan nan 0.0
0.0506 14.29 500 0.0491 0.0 nan nan nan 0.0
0.0504 14.86 520 0.0434 0.0 nan nan nan 0.0
0.0493 15.43 540 0.0448 0.0 nan nan nan 0.0
0.0507 16.0 560 0.0466 0.0 nan nan nan 0.0
0.0515 16.57 580 0.0448 0.0 nan nan nan 0.0
0.0456 17.14 600 0.0439 0.0 nan nan nan 0.0
0.0507 17.71 620 0.0368 0.0 nan nan nan 0.0
0.0457 18.29 640 0.0421 0.0 nan nan nan 0.0
0.0391 18.86 660 0.0353 0.0 nan nan nan 0.0
0.0389 19.43 680 0.0409 0.0 nan nan nan 0.0
0.0418 20.0 700 0.0371 0.0 nan nan nan 0.0
0.0352 20.57 720 0.0367 0.0 nan nan nan 0.0
0.035 21.14 740 0.0334 0.0 nan nan nan 0.0
0.0356 21.71 760 0.0350 0.0 nan nan nan 0.0
0.0338 22.29 780 0.0330 0.0 nan nan nan 0.0
0.0364 22.86 800 0.0322 0.0 nan nan nan 0.0
0.0392 23.43 820 0.0331 0.0 nan nan nan 0.0
0.0295 24.0 840 0.0336 0.0 nan nan nan 0.0
0.0315 24.57 860 0.0322 0.0 nan nan nan 0.0
0.03 25.14 880 0.0313 0.0 nan nan nan 0.0
0.0276 25.71 900 0.0340 0.0 nan nan nan 0.0
0.0274 26.29 920 0.0326 0.0 nan nan nan 0.0
0.0275 26.86 940 0.0304 0.0 nan nan nan 0.0
0.0278 27.43 960 0.0304 0.0 nan nan nan 0.0
0.0293 28.0 980 0.0338 0.0 nan nan nan 0.0
0.0245 28.57 1000 0.0295 0.0 nan nan nan 0.0
0.0348 29.14 1020 0.0287 0.0 nan nan nan 0.0
0.0236 29.71 1040 0.0273 0.0 nan nan nan 0.0
0.0229 30.29 1060 0.0260 0.0 nan nan nan 0.0
0.0324 30.86 1080 0.0290 0.0 nan nan nan 0.0
0.029 31.43 1100 0.0273 0.0 nan nan nan 0.0
0.0248 32.0 1120 0.0266 0.0 nan nan nan 0.0
0.0253 32.57 1140 0.0260 0.0 nan nan nan 0.0
0.0226 33.14 1160 0.0265 0.0 nan nan nan 0.0
0.0224 33.71 1180 0.0265 0.0 nan nan nan 0.0
0.0213 34.29 1200 0.0261 0.0 nan nan nan 0.0
0.0236 34.86 1220 0.0278 0.0 nan nan nan 0.0
0.0206 35.43 1240 0.0288 0.0 nan nan nan 0.0
0.0232 36.0 1260 0.0254 0.0 nan nan nan 0.0
0.0242 36.57 1280 0.0252 0.0 nan nan nan 0.0
0.0203 37.14 1300 0.0268 0.0 nan nan nan 0.0
0.0241 37.71 1320 0.0248 0.0 nan nan nan 0.0
0.0208 38.29 1340 0.0229 0.0 nan nan nan 0.0
0.0187 38.86 1360 0.0253 0.0 nan nan nan 0.0
0.0192 39.43 1380 0.0242 0.0 nan nan nan 0.0
0.022 40.0 1400 0.0248 0.0 nan nan nan 0.0
0.0189 40.57 1420 0.0244 0.0 nan nan nan 0.0
0.0202 41.14 1440 0.0250 0.0 nan nan nan 0.0
0.0181 41.71 1460 0.0242 0.0 nan nan nan 0.0
0.03 42.29 1480 0.0256 0.0 nan nan nan 0.0
0.0176 42.86 1500 0.0240 0.0 nan nan nan 0.0
0.0196 43.43 1520 0.0238 0.0 nan nan nan 0.0
0.0192 44.0 1540 0.0238 0.0 nan nan nan 0.0
0.0169 44.57 1560 0.0244 0.0 nan nan nan 0.0
0.0192 45.14 1580 0.0256 0.0 nan nan nan 0.0
0.0189 45.71 1600 0.0254 0.0 nan nan nan 0.0
0.0177 46.29 1620 0.0251 0.0 nan nan nan 0.0
0.0196 46.86 1640 0.0232 0.0 nan nan nan 0.0
0.0193 47.43 1660 0.0224 0.0 nan nan nan 0.0
0.0195 48.0 1680 0.0233 0.0 nan nan nan 0.0
0.0187 48.57 1700 0.0234 0.0 nan nan nan 0.0
0.0178 49.14 1720 0.0242 0.0 nan nan nan 0.0
0.0151 49.71 1740 0.0236 0.0 nan nan nan 0.0
0.0158 50.29 1760 0.0233 0.0 nan nan nan 0.0
0.0179 50.86 1780 0.0224 0.0 nan nan nan 0.0
0.0152 51.43 1800 0.0213 0.0 nan nan nan 0.0
0.0181 52.0 1820 0.0222 0.0 nan nan nan 0.0
0.0153 52.57 1840 0.0229 0.0 nan nan nan 0.0
0.0174 53.14 1860 0.0228 0.0 nan nan nan 0.0
0.015 53.71 1880 0.0230 0.0 nan nan nan 0.0
0.0138 54.29 1900 0.0237 0.0 nan nan nan 0.0
0.0154 54.86 1920 0.0233 0.0 nan nan nan 0.0
0.0154 55.43 1940 0.0230 0.0 nan nan nan 0.0
0.0164 56.0 1960 0.0240 0.0 nan nan nan 0.0
0.0164 56.57 1980 0.0235 0.0 nan nan nan 0.0
0.014 57.14 2000 0.0231 0.0 nan nan nan 0.0
0.0145 57.71 2020 0.0224 0.0 nan nan nan 0.0
0.0141 58.29 2040 0.0213 0.0 nan nan nan 0.0
0.0144 58.86 2060 0.0220 0.0 nan nan nan 0.0
0.0152 59.43 2080 0.0233 0.0 nan nan nan 0.0
0.0147 60.0 2100 0.0233 0.0 nan nan nan 0.0
0.0175 60.57 2120 0.0215 0.0 nan nan nan 0.0
0.0142 61.14 2140 0.0218 0.0 nan nan nan 0.0
0.0175 61.71 2160 0.0219 0.0 nan nan nan 0.0
0.0159 62.29 2180 0.0219 0.0 nan nan nan 0.0
0.0136 62.86 2200 0.0220 0.0 nan nan nan 0.0
0.0187 63.43 2220 0.0224 0.0 nan nan nan 0.0
0.0139 64.0 2240 0.0227 0.0 nan nan nan 0.0
0.0139 64.57 2260 0.0227 0.0 nan nan nan 0.0
0.0128 65.14 2280 0.0224 0.0 nan nan nan 0.0
0.0128 65.71 2300 0.0214 0.0 nan nan nan 0.0
0.0127 66.29 2320 0.0214 0.0 nan nan nan 0.0
0.0135 66.86 2340 0.0212 0.0 nan nan nan 0.0
0.0128 67.43 2360 0.0210 0.0 nan nan nan 0.0
0.0162 68.0 2380 0.0205 0.0 nan nan nan 0.0
0.0145 68.57 2400 0.0198 0.0 nan nan nan 0.0
0.0131 69.14 2420 0.0198 0.0 nan nan nan 0.0
0.0126 69.71 2440 0.0213 0.0 nan nan nan 0.0
0.013 70.29 2460 0.0211 0.0 nan nan nan 0.0
0.0134 70.86 2480 0.0211 0.0 nan nan nan 0.0
0.0133 71.43 2500 0.0214 0.0 nan nan nan 0.0
0.0124 72.0 2520 0.0213 0.0 nan nan nan 0.0
0.0112 72.57 2540 0.0215 0.0 nan nan nan 0.0
0.0128 73.14 2560 0.0217 0.0 nan nan nan 0.0
0.0127 73.71 2580 0.0218 0.0 nan nan nan 0.0
0.0127 74.29 2600 0.0207 0.0 nan nan nan 0.0
0.0126 74.86 2620 0.0208 0.0 nan nan nan 0.0
0.0119 75.43 2640 0.0207 0.0 nan nan nan 0.0
0.0122 76.0 2660 0.0212 0.0 nan nan nan 0.0
0.0148 76.57 2680 0.0211 0.0 nan nan nan 0.0
0.014 77.14 2700 0.0216 0.0 nan nan nan 0.0
0.0112 77.71 2720 0.0219 0.0 nan nan nan 0.0
0.012 78.29 2740 0.0211 0.0 nan nan nan 0.0
0.0116 78.86 2760 0.0211 0.0 nan nan nan 0.0
0.0114 79.43 2780 0.0218 0.0 nan nan nan 0.0
0.0129 80.0 2800 0.0215 0.0 nan nan nan 0.0
0.0124 80.57 2820 0.0211 0.0 nan nan nan 0.0
0.0146 81.14 2840 0.0214 0.0 nan nan nan 0.0
0.0122 81.71 2860 0.0206 0.0 nan nan nan 0.0
0.0117 82.29 2880 0.0206 0.0 nan nan nan 0.0
0.0135 82.86 2900 0.0206 0.0 nan nan nan 0.0
0.0155 83.43 2920 0.0211 0.0 nan nan nan 0.0
0.0123 84.0 2940 0.0207 0.0 nan nan nan 0.0
0.014 84.57 2960 0.0212 0.0 nan nan nan 0.0
0.0112 85.14 2980 0.0216 0.0 nan nan nan 0.0
0.013 85.71 3000 0.0217 0.0 nan nan nan 0.0
0.013 86.29 3020 0.0216 0.0 nan nan nan 0.0
0.0113 86.86 3040 0.0212 0.0 nan nan nan 0.0
0.0125 87.43 3060 0.0215 0.0 nan nan nan 0.0
0.0119 88.0 3080 0.0215 0.0 nan nan nan 0.0
0.0119 88.57 3100 0.0221 0.0 nan nan nan 0.0
0.0103 89.14 3120 0.0224 0.0 nan nan nan 0.0
0.012 89.71 3140 0.0226 0.0 nan nan nan 0.0
0.0116 90.29 3160 0.0228 0.0 nan nan nan 0.0
0.013 90.86 3180 0.0219 0.0 nan nan nan 0.0
0.0257 91.43 3200 0.0219 0.0 nan nan nan 0.0
0.0109 92.0 3220 0.0217 0.0 nan nan nan 0.0
0.0119 92.57 3240 0.0213 0.0 nan nan nan 0.0
0.0131 93.14 3260 0.0209 0.0 nan nan nan 0.0
0.0128 93.71 3280 0.0210 0.0 nan nan nan 0.0
0.0117 94.29 3300 0.0209 0.0 nan nan nan 0.0
0.0135 94.86 3320 0.0209 0.0 nan nan nan 0.0
0.0111 95.43 3340 0.0208 0.0 nan nan nan 0.0
0.0115 96.0 3360 0.0210 0.0 nan nan nan 0.0
0.0118 96.57 3380 0.0210 0.0 nan nan nan 0.0
0.0118 97.14 3400 0.0211 0.0 nan nan nan 0.0
0.0173 97.71 3420 0.0209 0.0 nan nan nan 0.0
0.0127 98.29 3440 0.0210 0.0 nan nan nan 0.0
0.0114 98.86 3460 0.0210 0.0 nan nan nan 0.0
0.0114 99.43 3480 0.0210 0.0 nan nan nan 0.0
0.0642 100.0 3500 0.0210 0.0 nan nan nan 0.0

Framework versions

  • Transformers 4.35.0
  • Pytorch 2.1.0
  • Datasets 2.14.6
  • Tokenizers 0.14.1
Downloads last month
10
Safetensors
Model size
3.71M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for vigneshgs7/segformer-b0-finetuned-segments-docboundary-dec-15-88_images

Base model

nvidia/mit-b0
Finetuned
(315)
this model