detr_finetuned_planes

This model is a fine-tuned version of microsoft/conditional-detr-resnet-50 on the None dataset. It achieves the following results on the evaluation set:

  • Loss: 1.4324
  • Map: 0.063
  • Map 50: 0.148
  • Map 75: 0.0182
  • Map Small: 0.007
  • Map Medium: 0.127
  • Map Large: 0.1669
  • Mar 1: 0.2093
  • Mar 10: 0.3586
  • Mar 100: 0.4321
  • Mar Small: 0.1222
  • Mar Medium: 0.6086
  • Mar Large: 0.5333
  • Map Compagnie: 0.1058
  • Mar 100 Compagnie: 0.55
  • Map Immatriculation: 0.0201
  • Mar 100 Immatriculation: 0.3143

Model description

More information needed

Intended uses & limitations

More information needed

Training and evaluation data

More information needed

Training procedure

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 5e-05
  • train_batch_size: 8
  • eval_batch_size: 8
  • seed: 42
  • optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
  • lr_scheduler_type: cosine
  • num_epochs: 100

Training results

Training Loss Epoch Step Validation Loss Map Map 50 Map 75 Map Small Map Medium Map Large Mar 1 Mar 10 Mar 100 Mar Small Mar Medium Mar Large Map Compagnie Mar 100 Compagnie Map Immatriculation Mar 100 Immatriculation
No log 1.0 11 5.2520 0.0001 0.0008 0.0 0.0 0.0002 0.0003 0.0 0.0 0.05 0.0 0.05 0.1 0.0003 0.1 0.0 0.0
No log 2.0 22 2.6971 0.0001 0.0002 0.0 0.0 0.0002 0.0 0.0 0.0 0.0143 0.0 0.04 0.0 0.0 0.0 0.0001 0.0286
No log 3.0 33 2.4213 0.0129 0.0628 0.0 0.0 0.0174 0.0126 0.01 0.04 0.1093 0.0 0.1471 0.1333 0.0258 0.19 0.0 0.0286
No log 4.0 44 2.2012 0.0028 0.0108 0.0003 0.0 0.0037 0.0654 0.0 0.0636 0.1136 0.0 0.1171 0.2333 0.0056 0.22 0.0001 0.0071
No log 5.0 55 2.1431 0.0092 0.0671 0.0006 0.0005 0.0139 0.0101 0.0036 0.0936 0.1371 0.0333 0.1743 0.1667 0.017 0.21 0.0014 0.0643
No log 6.0 66 2.1070 0.0193 0.0933 0.001 0.0 0.0274 0.0224 0.03 0.1136 0.1607 0.0 0.25 0.1333 0.0383 0.25 0.0003 0.0714
No log 7.0 77 2.0643 0.0088 0.0337 0.0001 0.0001 0.0213 0.1414 0.035 0.09 0.1479 0.0222 0.2143 0.1667 0.0173 0.21 0.0003 0.0857
No log 8.0 88 1.8803 0.0058 0.0214 0.0001 0.0003 0.0065 0.0927 0.04 0.105 0.1971 0.0222 0.2129 0.4333 0.0108 0.33 0.0008 0.0643
No log 9.0 99 1.9989 0.0058 0.0215 0.0011 0.0005 0.0098 0.1209 0.03 0.105 0.2207 0.0444 0.28 0.3667 0.0103 0.32 0.0014 0.1214
No log 10.0 110 2.0470 0.0018 0.0107 0.0 0.0019 0.0026 0.0038 0.0 0.045 0.0907 0.0444 0.1243 0.0667 0.0023 0.11 0.0014 0.0714
No log 11.0 121 1.8644 0.0037 0.0259 0.0002 0.0008 0.0065 0.0309 0.0 0.085 0.1629 0.0333 0.2386 0.2667 0.0056 0.19 0.0018 0.1357
No log 12.0 132 1.7977 0.0052 0.0262 0.0002 0.0004 0.0115 0.0241 0.0 0.0607 0.1664 0.0444 0.2457 0.2333 0.0093 0.19 0.0012 0.1429
No log 13.0 143 1.7703 0.0166 0.0788 0.0007 0.0006 0.0272 0.2703 0.01 0.1464 0.1914 0.0111 0.2414 0.4 0.0315 0.29 0.0018 0.0929
No log 14.0 154 1.8044 0.0202 0.0618 0.0016 0.0051 0.0264 0.1087 0.095 0.2143 0.2493 0.0667 0.2843 0.4667 0.0351 0.37 0.0053 0.1286
No log 15.0 165 1.7581 0.0074 0.0243 0.002 0.0018 0.0122 0.3891 0.0271 0.1136 0.2236 0.0444 0.2871 0.4667 0.0122 0.29 0.0026 0.1571
No log 16.0 176 1.8254 0.0108 0.0344 0.0002 0.0021 0.0727 0.3401 0.0 0.0929 0.1793 0.0444 0.2186 0.4 0.0181 0.23 0.0036 0.1286
No log 17.0 187 1.6104 0.0184 0.0538 0.0079 0.0213 0.0233 0.0824 0.0736 0.2814 0.3329 0.1222 0.4343 0.4333 0.0262 0.43 0.0106 0.2357
No log 18.0 198 1.8453 0.0064 0.0239 0.0004 0.002 0.0089 0.0513 0.03 0.1621 0.2129 0.0556 0.2829 0.3 0.0102 0.29 0.0026 0.1357
No log 19.0 209 1.7219 0.0163 0.0554 0.0014 0.0016 0.0233 0.1695 0.0507 0.1986 0.2621 0.0667 0.3414 0.4 0.0298 0.36 0.0029 0.1643
No log 20.0 220 1.6002 0.0247 0.0802 0.0025 0.0028 0.0396 0.1251 0.0336 0.2407 0.3243 0.1444 0.3829 0.5 0.0445 0.42 0.005 0.2286
No log 21.0 231 1.6892 0.0172 0.0864 0.0003 0.0008 0.062 0.057 0.0564 0.155 0.2257 0.0667 0.33 0.2333 0.0241 0.28 0.0103 0.1714
No log 22.0 242 1.7976 0.0278 0.1272 0.0017 0.0241 0.0287 0.0093 0.0421 0.1407 0.1964 0.0667 0.3243 0.1333 0.0381 0.2 0.0175 0.1929
No log 23.0 253 1.7992 0.017 0.0859 0.001 0.003 0.0302 0.0283 0.0857 0.2079 0.2693 0.0333 0.3786 0.3 0.0215 0.41 0.0124 0.1286
No log 24.0 264 1.8083 0.0148 0.0612 0.0043 0.0007 0.0195 0.0349 0.0643 0.205 0.2721 0.0222 0.3614 0.4 0.0279 0.43 0.0018 0.1143
No log 25.0 275 1.7105 0.0177 0.0664 0.0061 0.0002 0.0238 0.1804 0.0764 0.2043 0.2871 0.0111 0.4057 0.5 0.0318 0.41 0.0036 0.1643
No log 26.0 286 1.6512 0.0255 0.1135 0.0055 0.0167 0.0356 0.1051 0.1179 0.2529 0.3457 0.0778 0.4614 0.5333 0.0381 0.47 0.013 0.2214
No log 27.0 297 1.5541 0.0347 0.1133 0.0128 0.0024 0.0526 0.0647 0.1286 0.2393 0.3821 0.1 0.4814 0.5667 0.0649 0.55 0.0045 0.2143
No log 28.0 308 1.5494 0.0629 0.1793 0.0259 0.0118 0.0845 0.0932 0.1707 0.2879 0.3714 0.1556 0.4429 0.5333 0.112 0.5 0.0138 0.2429
No log 29.0 319 1.5831 0.0439 0.157 0.0091 0.0045 0.0653 0.2079 0.125 0.2829 0.3479 0.1222 0.4414 0.5 0.0806 0.46 0.0072 0.2357
No log 30.0 330 1.6017 0.0241 0.0649 0.0033 0.0008 0.0368 0.0752 0.0843 0.2479 0.2929 0.0444 0.3857 0.4 0.0453 0.45 0.0029 0.1357
No log 31.0 341 1.5198 0.0259 0.0669 0.0069 0.0025 0.0532 0.0309 0.095 0.2893 0.3607 0.1111 0.4743 0.4333 0.0446 0.5 0.0072 0.2214
No log 32.0 352 1.6116 0.0333 0.1221 0.0055 0.0044 0.0521 0.0592 0.0886 0.245 0.3414 0.1111 0.4686 0.4 0.0585 0.44 0.0082 0.2429
No log 33.0 363 1.8797 0.0288 0.1033 0.0034 0.0055 0.0799 0.0789 0.0321 0.2043 0.275 0.0667 0.3214 0.5333 0.0434 0.4 0.0142 0.15
No log 34.0 374 1.6108 0.0269 0.0864 0.009 0.003 0.0834 0.109 0.1057 0.2864 0.3521 0.0556 0.4929 0.5 0.0386 0.49 0.0152 0.2143
No log 35.0 385 1.6165 0.0271 0.0593 0.0129 0.0053 0.0415 0.0952 0.1257 0.2893 0.3821 0.1 0.5029 0.4667 0.0451 0.55 0.0091 0.2143
No log 36.0 396 1.6721 0.0584 0.1437 0.0568 0.0039 0.1185 0.0978 0.1421 0.2464 0.3086 0.0556 0.3914 0.5 0.1022 0.46 0.0146 0.1571
No log 37.0 407 1.4843 0.0554 0.1243 0.0291 0.0049 0.0965 0.0349 0.13 0.3579 0.3771 0.1333 0.55 0.2333 0.0974 0.49 0.0135 0.2643
No log 38.0 418 1.5666 0.0452 0.152 0.0047 0.0056 0.0922 0.0695 0.0821 0.295 0.3357 0.1111 0.4743 0.2667 0.0761 0.45 0.0142 0.2214
No log 39.0 429 1.4790 0.0487 0.1227 0.0381 0.0048 0.1007 0.0202 0.18 0.315 0.35 0.0889 0.4929 0.3 0.0851 0.5 0.0124 0.2
No log 40.0 440 1.5106 0.0425 0.1227 0.0087 0.0022 0.1397 0.0226 0.1321 0.3014 0.3714 0.0444 0.5157 0.5 0.0733 0.55 0.0117 0.1929
No log 41.0 451 1.6122 0.0231 0.1168 0.0084 0.0055 0.0413 0.0334 0.1357 0.2693 0.3279 0.0889 0.3943 0.5667 0.0355 0.47 0.0108 0.1857
No log 42.0 462 1.6273 0.0472 0.1355 0.0305 0.0051 0.1079 0.0462 0.1886 0.3207 0.3757 0.0778 0.4757 0.6667 0.08 0.53 0.0143 0.2214
No log 43.0 473 1.5876 0.0446 0.1512 0.0316 0.0061 0.0946 0.0562 0.1357 0.2729 0.3443 0.0889 0.4471 0.5667 0.0745 0.46 0.0148 0.2286
No log 44.0 484 1.5374 0.0329 0.1155 0.0043 0.0045 0.0608 0.2587 0.0736 0.2143 0.3207 0.0778 0.3771 0.6 0.0571 0.47 0.0087 0.1714
No log 45.0 495 1.4488 0.0685 0.1191 0.0637 0.0035 0.1331 0.0594 0.2164 0.305 0.3729 0.1333 0.4943 0.5333 0.1252 0.46 0.0118 0.2857
2.0225 46.0 506 1.7531 0.0219 0.0817 0.0046 0.0024 0.0342 0.0978 0.0771 0.2207 0.3029 0.0444 0.3986 0.5667 0.0393 0.42 0.0045 0.1857
2.0225 47.0 517 1.6824 0.0199 0.0619 0.0086 0.0066 0.0525 0.0444 0.1021 0.2471 0.3529 0.1 0.49 0.4 0.0267 0.47 0.0131 0.2357
2.0225 48.0 528 1.5893 0.037 0.1087 0.0079 0.0181 0.0615 0.0687 0.1979 0.3007 0.37 0.1333 0.5429 0.3333 0.0534 0.44 0.0205 0.3
2.0225 49.0 539 1.5512 0.0289 0.1146 0.0079 0.0112 0.0656 0.1859 0.0943 0.2493 0.3729 0.1556 0.4886 0.4667 0.0402 0.46 0.0176 0.2857
2.0225 50.0 550 1.6357 0.0239 0.0708 0.0065 0.0073 0.0372 0.2022 0.0671 0.2164 0.3443 0.0667 0.4886 0.4667 0.0385 0.46 0.0094 0.2286
2.0225 51.0 561 1.5813 0.0386 0.1351 0.0046 0.0144 0.0794 0.3073 0.1143 0.2793 0.3557 0.1444 0.4643 0.4667 0.0546 0.44 0.0225 0.2714
2.0225 52.0 572 1.5008 0.0642 0.1241 0.0763 0.019 0.1138 0.0896 0.2143 0.3464 0.3986 0.1889 0.5243 0.4 0.1038 0.49 0.0247 0.3071
2.0225 53.0 583 1.5648 0.0412 0.1442 0.0258 0.0056 0.0849 0.1776 0.13 0.2864 0.3764 0.1333 0.4843 0.4667 0.0714 0.51 0.0109 0.2429
2.0225 54.0 594 1.4630 0.0347 0.0928 0.0129 0.0064 0.0531 0.0683 0.115 0.2979 0.4014 0.1333 0.5614 0.4333 0.06 0.51 0.0094 0.2929
2.0225 55.0 605 1.4009 0.0374 0.1075 0.0075 0.0091 0.0571 0.0785 0.0729 0.29 0.3957 0.1111 0.5371 0.5333 0.0635 0.52 0.0113 0.2714
2.0225 56.0 616 1.5328 0.0457 0.1273 0.0134 0.0112 0.0685 0.0678 0.1286 0.2757 0.37 0.0889 0.52 0.4667 0.0783 0.49 0.0132 0.25
2.0225 57.0 627 1.5317 0.0476 0.1303 0.0169 0.0103 0.094 0.1838 0.175 0.2993 0.4021 0.1 0.5371 0.6 0.0768 0.54 0.0185 0.2643
2.0225 58.0 638 1.4760 0.05 0.1482 0.0061 0.0167 0.1017 0.0849 0.2043 0.3257 0.3993 0.1667 0.4971 0.5333 0.0722 0.52 0.0278 0.2786
2.0225 59.0 649 1.4788 0.0461 0.1161 0.0221 0.022 0.0788 0.0841 0.2379 0.3371 0.4129 0.1556 0.5314 0.5333 0.0642 0.54 0.028 0.2857
2.0225 60.0 660 1.5039 0.0422 0.1215 0.0076 0.005 0.082 0.3167 0.1514 0.3136 0.3979 0.0667 0.5486 0.5667 0.069 0.56 0.0155 0.2357
2.0225 61.0 671 1.4831 0.0484 0.1255 0.0143 0.006 0.1048 0.2005 0.1929 0.3307 0.405 0.0778 0.5514 0.6 0.0788 0.56 0.0179 0.25
2.0225 62.0 682 1.4432 0.0522 0.1215 0.053 0.0011 0.0987 0.2112 0.1414 0.3293 0.3957 0.0222 0.5614 0.6333 0.0962 0.57 0.0083 0.2214
2.0225 63.0 693 1.4337 0.0512 0.1397 0.0241 0.0106 0.0915 0.3999 0.12 0.2979 0.3721 0.0556 0.5214 0.5 0.0879 0.53 0.0145 0.2143
2.0225 64.0 704 1.3991 0.0409 0.129 0.0079 0.0035 0.0932 0.2954 0.1693 0.3193 0.3907 0.0778 0.56 0.5333 0.0709 0.51 0.0109 0.2714
2.0225 65.0 715 1.4337 0.0346 0.1063 0.0094 0.0042 0.0673 0.2042 0.1757 0.3314 0.3857 0.1 0.54 0.5 0.0578 0.5 0.0113 0.2714
2.0225 66.0 726 1.3865 0.0383 0.1099 0.0084 0.0041 0.0639 0.3485 0.1864 0.3393 0.3929 0.1111 0.5643 0.4333 0.0653 0.5 0.0113 0.2857
2.0225 67.0 737 1.4077 0.047 0.1065 0.0423 0.0034 0.0995 0.2337 0.2086 0.3693 0.385 0.0889 0.5343 0.5 0.0815 0.52 0.0124 0.25
2.0225 68.0 748 1.4694 0.051 0.1171 0.0441 0.0085 0.0875 0.2104 0.1814 0.3157 0.38 0.0889 0.5343 0.4667 0.0868 0.51 0.0153 0.25
2.0225 69.0 759 1.5175 0.0545 0.1657 0.0101 0.0166 0.098 0.448 0.1614 0.2907 0.3714 0.1222 0.48 0.5 0.0824 0.5 0.0265 0.2429
2.0225 70.0 770 1.4361 0.0613 0.1642 0.032 0.0081 0.1123 0.4158 0.2071 0.3571 0.4157 0.1111 0.5657 0.5333 0.1047 0.56 0.0179 0.2714
2.0225 71.0 781 1.4123 0.0452 0.1166 0.0194 0.011 0.0803 0.1154 0.2207 0.3407 0.4079 0.1333 0.5586 0.4667 0.0724 0.53 0.0181 0.2857
2.0225 72.0 792 1.3903 0.0414 0.1147 0.0109 0.0101 0.085 0.1312 0.2043 0.3643 0.4214 0.1333 0.5829 0.4667 0.0636 0.55 0.0192 0.2929
2.0225 73.0 803 1.4015 0.0477 0.122 0.0178 0.0091 0.1044 0.2022 0.2014 0.3457 0.46 0.1111 0.6129 0.7 0.076 0.62 0.0193 0.3
2.0225 74.0 814 1.4048 0.0626 0.1708 0.0571 0.0262 0.1052 0.1971 0.2221 0.3571 0.4536 0.1333 0.6029 0.6333 0.0943 0.6 0.031 0.3071
2.0225 75.0 825 1.3959 0.056 0.1278 0.0294 0.0209 0.1078 0.181 0.2336 0.3814 0.4621 0.1111 0.6471 0.6 0.0822 0.61 0.0298 0.3143
2.0225 76.0 836 1.4207 0.05 0.1359 0.014 0.0112 0.1189 0.1769 0.2114 0.3693 0.4429 0.0889 0.62 0.6 0.076 0.6 0.024 0.2857
2.0225 77.0 847 1.4205 0.0495 0.1284 0.0217 0.0064 0.1286 0.1699 0.2043 0.3814 0.4564 0.1111 0.6314 0.5667 0.078 0.62 0.021 0.2929
2.0225 78.0 858 1.4265 0.0576 0.1432 0.0232 0.0058 0.1203 0.1943 0.195 0.3657 0.4514 0.1111 0.6171 0.6 0.0973 0.61 0.0178 0.2929
2.0225 79.0 869 1.4215 0.0599 0.1449 0.0218 0.0076 0.1139 0.3812 0.1836 0.3714 0.4557 0.1333 0.6229 0.6 0.1014 0.59 0.0184 0.3214
2.0225 80.0 880 1.4172 0.068 0.186 0.021 0.0066 0.1283 0.3873 0.1921 0.3514 0.4414 0.1222 0.5929 0.6 0.1185 0.59 0.0175 0.2929
2.0225 81.0 891 1.4206 0.069 0.1832 0.0229 0.0076 0.1326 0.1949 0.2093 0.38 0.445 0.1333 0.6 0.5667 0.1186 0.59 0.0193 0.3
2.0225 82.0 902 1.4646 0.0689 0.1877 0.0273 0.008 0.1319 0.2065 0.2214 0.3679 0.4329 0.1222 0.5829 0.5667 0.1178 0.58 0.0201 0.2857
2.0225 83.0 913 1.4540 0.0706 0.1933 0.0235 0.0091 0.134 0.2065 0.2164 0.3714 0.44 0.1333 0.5929 0.5667 0.1196 0.58 0.0216 0.3
2.0225 84.0 924 1.4320 0.068 0.1856 0.0197 0.0068 0.1325 0.3458 0.1971 0.365 0.4321 0.1222 0.6086 0.5333 0.1166 0.55 0.0194 0.3143
2.0225 85.0 935 1.4409 0.0674 0.1888 0.02 0.0066 0.1333 0.1986 0.2007 0.3614 0.4336 0.1111 0.6086 0.5667 0.1161 0.56 0.0188 0.3071
2.0225 86.0 946 1.4277 0.068 0.1836 0.0217 0.0067 0.1353 0.1714 0.2007 0.3614 0.4471 0.1111 0.6329 0.5667 0.1167 0.58 0.0194 0.3143
2.0225 87.0 957 1.4314 0.0723 0.1791 0.0659 0.0058 0.1478 0.1673 0.2043 0.365 0.4521 0.1111 0.64 0.5667 0.1257 0.59 0.019 0.3143
2.0225 88.0 968 1.4168 0.0737 0.1868 0.0662 0.0085 0.1491 0.1688 0.2114 0.36 0.4471 0.1222 0.6229 0.5667 0.1257 0.58 0.0217 0.3143
2.0225 89.0 979 1.4098 0.0722 0.1792 0.0663 0.0054 0.1387 0.1715 0.2043 0.3529 0.4436 0.1111 0.6229 0.5667 0.1268 0.58 0.0176 0.3071
2.0225 90.0 990 1.4153 0.0624 0.1473 0.0193 0.0062 0.1247 0.1727 0.1993 0.3479 0.435 0.1111 0.6057 0.5667 0.1061 0.57 0.0187 0.3
1.0117 91.0 1001 1.4179 0.0621 0.147 0.0179 0.0068 0.1227 0.1734 0.1921 0.3614 0.4336 0.1222 0.6057 0.5333 0.1056 0.56 0.0186 0.3071
1.0117 92.0 1012 1.4373 0.062 0.1462 0.0179 0.0079 0.1157 0.1677 0.1886 0.36 0.4371 0.1333 0.6057 0.5333 0.1044 0.56 0.0197 0.3143
1.0117 93.0 1023 1.4341 0.0616 0.1471 0.0179 0.0068 0.1256 0.1707 0.1971 0.3536 0.4321 0.1222 0.6086 0.5333 0.1037 0.55 0.0196 0.3143
1.0117 94.0 1034 1.4325 0.0622 0.147 0.0179 0.007 0.1193 0.1706 0.1971 0.3586 0.4321 0.1222 0.6086 0.5333 0.1047 0.55 0.0198 0.3143
1.0117 95.0 1045 1.4319 0.0624 0.148 0.0178 0.007 0.1194 0.167 0.2021 0.3586 0.4321 0.1222 0.6086 0.5333 0.1051 0.55 0.0198 0.3143
1.0117 96.0 1056 1.4321 0.0619 0.1479 0.0179 0.007 0.1184 0.167 0.2021 0.3536 0.4321 0.1222 0.6086 0.5333 0.1041 0.55 0.0197 0.3143
1.0117 97.0 1067 1.4322 0.063 0.148 0.0182 0.007 0.1281 0.1669 0.2129 0.3586 0.4321 0.1222 0.6086 0.5333 0.1058 0.55 0.0203 0.3143
1.0117 98.0 1078 1.4324 0.063 0.148 0.0182 0.007 0.1281 0.1669 0.2129 0.3586 0.4321 0.1222 0.6086 0.5333 0.1058 0.55 0.0203 0.3143
1.0117 99.0 1089 1.4324 0.063 0.148 0.0182 0.007 0.127 0.1669 0.2093 0.3586 0.4321 0.1222 0.6086 0.5333 0.1058 0.55 0.0201 0.3143
1.0117 100.0 1100 1.4324 0.063 0.148 0.0182 0.007 0.127 0.1669 0.2093 0.3586 0.4321 0.1222 0.6086 0.5333 0.1058 0.55 0.0201 0.3143

Framework versions

  • Transformers 4.53.0
  • Pytorch 2.7.1+cu126
  • Datasets 3.6.0
  • Tokenizers 0.21.2
Downloads last month
86
Safetensors
Model size
43.5M params
Tensor type
F32
ยท
Inference Providers NEW
This model isn't deployed by any Inference Provider. ๐Ÿ™‹ Ask for provider support

Model tree for Antoine101/detr_finetuned_planes

Finetuned
(82)
this model