3 个月前

基于10亿参数跨1000帧的端到端时序动作检测

基于10亿参数跨1000帧的端到端时序动作检测

摘要

近年来,基于端到端训练的时序动作检测(Temporal Action Detection, TAD)取得了显著的性能提升。然而,由于内存瓶颈的限制,仅有参数量有限且输入视频数据量较小的模型能够支持端到端训练,这不可避免地制约了TAD性能的进一步突破。本文提出了一种有效降低端到端训练内存消耗的方法,成功将TAD主干网络扩展至10亿参数规模,并支持长达1,536帧的输入视频,显著提升了检测性能。本方法的核心在于我们提出的时序信息适配器(Temporal-Informative Adapter, TIA),这是一种新颖的轻量级模块,能够显著减少训练过程中的内存占用。通过TIA,我们仅需更新其自身参数,即可使庞大的主干网络无需重新学习适配TAD任务,从而大幅降低训练负担。此外,TIA通过在主干网络中对相邻帧的时序上下文进行聚合,进一步增强了TAD的表征能力。我们在四个具有代表性的数据集上对模型进行了全面评估。得益于高效的设计,我们首次在VideoMAEv2-giant数据集上实现了端到端训练,并在THUMOS14数据集上取得了75.4%的mAP,成为首个超越最优基于特征的方法的端到端模型。相关代码已开源,地址为:https://github.com/sming256/AdaTAD。

代码仓库

sming256/OpenTAD
官方
pytorch
sming256/AdaTAD
pytorch
GitHub 中提及

基准测试

基准方法指标
temporal-action-localization-on-activitynetAdaTAD (VideoMAEv2-giant)
mAP: 41.93
mAP IOU@0.5: 61.72
mAP IOU@0.75: 43.35
mAP IOU@0.95: 10.85
temporal-action-localization-on-epic-kitchensAdaTAD (verb, VideoMAE-L)
Avg mAP (0.1-0.5): 29.3
mAP IOU@0.1: 33.1
mAP IOU@0.2: 32.2
mAP IOU@0.3: 30.4
mAP IOU@0.4: 27.5
mAP IOU@0.5: 23.1
temporal-action-localization-on-thumos14AdaTAD (VideoMAEv2-giant)
Avg mAP (0.3:0.7): 76.9
mAP IOU@0.3: 89.7
mAP IOU@0.4: 86.7
mAP IOU@0.5: 80.9
mAP IOU@0.6: 71.0
mAP IOU@0.7: 56.1

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
基于10亿参数跨1000帧的端到端时序动作检测 | 论文 | HyperAI超神经