
摘要
视频异常检测(Video Anomaly Detection, VAD)在计算机视觉领域的视频分析与监控中具有至关重要的作用。然而,现有的VAD模型依赖于预先学习的正常模式,这使得它们难以适应多样化的应用场景。因此,用户在面对新环境时,往往需要重新训练模型或开发独立的AI模型,这一过程不仅要求具备机器学习专业知识,还需高性能硬件支持以及大规模数据采集,严重限制了VAD技术的实际应用价值。为应对上述挑战,本研究提出了一种可定制化视频异常检测技术(Customizable Video Anomaly Detection, C-VAD)及相应的AnyAnomaly模型。C-VAD能够将用户自定义的文本描述作为异常事件的定义,并检测视频中是否包含指定事件的帧。我们通过一种无需微调大视觉语言模型的上下文感知视觉问答机制,高效实现了AnyAnomaly模型。为验证所提方法的有效性,我们构建了C-VAD专用数据集,并实证展示了AnyAnomaly模型的优越性能。此外,该方法在多个标准VAD基准数据集上均表现出具有竞争力的性能,在UBnormal数据集上达到了当前最优(SOTA)水平,并在所有数据集上均展现出更强的泛化能力。相关代码已开源,可通过 GitHub 项目页面:github.com/SkiddieAhn/Paper-AnyAnomaly 获取。
代码仓库
SkiddieAhn/Paper-AnyAnomaly
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| video-anomaly-detection-on-cuhk-avenue | AnyAnomaly | AUC: 87.3% |
| video-anomaly-detection-on-shanghaitech-4 | AnyAnomaly | AUC: 79.7% |
| video-anomaly-detection-on-ubnormal | AnyAnomaly | AUC: 74.5% |