解决detr系列训练收敛慢的问题改善匹配的数量与质量1.密集一对一匹配传统detr使用稀疏的一对一匹配每个gt只匹配一个query导致正样本少训练效率低之后采用密集匹配策略增加正样本数量模型在迭代学到更多有效信息、2.MAL匹配感知损失传统损失函数不考虑匹配质量对所有样本一视同仁mal根据匹配质量动态调整损失权重高质量匹配给于更高权重强制模型精准定位低质量匹配降低权重避免噪声干扰3.即插即用的改进模块可以和D-FINE结合也可以和RT-DETR结合不改动模型架构只改进匹配策略和损失函数可以无缝集成到现有的DETR系列的模型中两个改进工作痛点1监督稀疏传统的detr的o2o抠门一张图10个物体只有10个正样本其他几百个预测都是负样本正样本严重不足小目标太难学、dense o2o通过分阶段匹配或者密度调整端到端情况下大幅增加正样本数量。痛点2低质量匹配看左下角的图猫耳朵部分红框模型预测的框confidence0.81置信度很高黄框GT真实框IoU0.27重叠度很低模型很自信但是框的位置很差这种高置信度低iou的匹配就是低质量匹配。训练时这个框被当作正样本因为置信度高但位置实际上很差模型从这种劣质教材学习越学越偏实验部分