3 个月前

提示引导的Transformer用于多任务密集预测

提示引导的Transformer用于多任务密集预测

摘要

任务条件化架构在参数效率方面具有优势,但在性能上仍不及当前最先进的多解码器方法。如何在模型性能与参数量之间实现有效权衡,是一个重要且具有挑战性的问题。本文提出一种简单而轻量级的任务条件化模型——提示引导Transformer(Prompt Guided Transformer, PGT),以优化这一难题。该方法设计了一种提示条件化的Transformer模块,通过在自注意力机制中引入任务特定的提示(prompt),实现跨多任务的全局依赖建模与参数高效的特征适配。该模块被集成于共享编码器与解码器中,有效增强了模型对任务内及任务间特征的捕捉能力。此外,我们设计了一种轻量级解码器,进一步降低参数使用量,其参数仅占模型总参数的2.7%。在两个多任务密集预测基准数据集PASCAL-Context与NYUD-v2上的大量实验表明,所提方法在任务条件化模型中达到了当前最优性能,同时显著减少了参数量,实现了性能与模型规模之间的良好平衡。

代码仓库

基准测试

基准方法指标
boundary-detection-on-nyu-depth-v2PGT (Swin-T)
odsF: 77.05
boundary-detection-on-nyu-depth-v2PGT (Swin-S)
odsF: 78.04
monocular-depth-estimation-on-nyu-depth-v2PGT (Swin-S)
RMSE: 0.5468
monocular-depth-estimation-on-nyu-depth-v2PGT (Swin-T)
RMSE: 0.59
semantic-segmentation-on-nyu-depth-v2PGT (Swin-T)
Mean IoU: 41.61
semantic-segmentation-on-nyu-depth-v2PGT (Swin-S)
Mean IoU: 46.43

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
提示引导的Transformer用于多任务密集预测 | 论文 | HyperAI超神经