3 个月前

Mr. DETR:用于检测Transformer的指导性多路径训练

Mr. DETR:用于检测Transformer的指导性多路径训练

摘要

现有方法通过引入辅助的“一对多”匹配机制来提升检测Transformer的训练效果。在本工作中,我们将模型视为一个多重任务框架,同时执行“一对一”与“一对多”预测。我们系统地研究了Transformer解码器中各个组件(包括自注意力、交叉注意力和前馈网络)在两种训练目标下的作用。实验结果表明,解码器中的任意独立组件均能有效同时学习两种目标,即使其他组件共享。基于这一发现,我们提出了一种多路径训练机制:设置一条主路径用于“一对一”预测,以及两条辅助路径用于“一对多”预测。我们进一步引入一种新型的指导性自注意力机制,能够动态且灵活地引导对象查询以实现“一对多”预测。在推理阶段,辅助路径被移除,从而确保模型架构和推理开销不受影响。我们在多种基准模型上进行了大量实验,结果均显示一致的性能提升,如图1所示。项目主页:https://visual-ai.github.io/mrdetr

代码仓库

Visual-AI/Mr.DETR
pytorch
GitHub 中提及

基准测试

基准方法指标
object-detection-on-coco-2017-valMr. DETR (Swin-L, 1x, 4scale)
AP: 58.4
AP50: 76.3
AP75: 63.9
APL: 40.8
APM: 62.8
APS: 75.3

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
Mr. DETR:用于检测Transformer的指导性多路径训练 | 论文 | HyperAI超神经