3 个月前

基于概率回归的视觉跟踪

基于概率回归的视觉跟踪

摘要

视觉跟踪本质上是回归视频每一帧中目标状态的问题。尽管取得了显著进展,现有跟踪器仍容易出现失败和精度不足的情况。因此,准确表征目标估计中的不确定性至关重要。当前主流方法通常依赖于预测与状态相关的置信度分数,但该数值缺乏明确的概率解释,限制了其在实际应用中的可解释性与有效性。为此,本文提出一种概率回归框架并将其应用于视觉跟踪任务。我们的网络能够预测在给定输入图像条件下目标状态的条件概率密度。关键在于,该框架可有效建模由标注不准确引发的标签噪声以及任务本身存在的模糊性。回归网络通过最小化KL散度(Kullback-Leibler Divergence)进行训练。在跟踪应用中,该方法不仅实现了输出结果的概率化表达,还显著提升了跟踪性能。所提出的跟踪器在六个公开数据集上均取得了新的最先进(state-of-the-art)结果,在LaSOT数据集上达到59.8%的AUC,在TrackingNet数据集上取得75.8%的成功率(Success Rate)。相关代码与模型已开源,地址为:https://github.com/visionml/pytracking。

代码仓库

visionml/pytracking
官方
pytorch
GitHub 中提及
open-mmlab/mmtracking
pytorch
GitHub 中提及

基准测试

基准方法指标
object-tracking-on-fe108PrDiMP
Averaged Precision: 87.7
Success Rate: 59.0

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
基于概率回归的视觉跟踪 | 论文 | HyperAI超神经