3 个月前

邻域代表性采样用于高效端到端视频质量评估

邻域代表性采样用于高效端到端视频质量评估

摘要

高分辨率真实视频为深度视频质量评估(VQA)带来了效率与准确性的两难困境。一方面,保持原始分辨率会导致难以接受的计算开销;另一方面,现有的处理方法如缩放和裁剪,由于丢失细节与内容,会改变原始视频的质量特性,从而对质量评估产生负面影响。基于对人类视觉系统中时空冗余性及视觉编码理论的研究洞察,我们发现邻域内的质量信息通常具有高度相似性,这启发我们提出一种高效的质量敏感型邻域代表性采样方案。本文提出一种统一的采样框架——时空网格微立方体采样(Spatial-Temporal Grid Mini-cube Sampling, St-GMS),用于生成一种新型样本,称为“片段”(fragments)。首先,全分辨率视频按照预设的时空网格划分为微立方体单元,随后在时间对齐的基础上采样质量代表性特征,组合形成用于VQA输入的片段。此外,我们设计了一种专为片段数据定制的网络架构——片段注意力网络(Fragment Attention Network, FANet)。结合片段与FANet,所提出的高效端到端方法FAST-VQA与FasterVQA在所有主流VQA基准测试中均显著优于现有方法,同时计算复杂度仅相当于当前最先进方法的1/1612(FLOPs)。代码、模型及演示资源已开源,详见:https://github.com/timothyhtimothy/FAST-VQA-and-FasterVQA。

代码仓库

timothyhtimothy/fast-vqa
pytorch
GitHub 中提及
QualityAssessment/FAST-VQA-and-FasterVQA
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
video-quality-assessment-on-konvid-1kFasterVQA (fine-tuned)
PLCC: 0.898
video-quality-assessment-on-live-fb-lsvqFasterVQA
PLCC: 0.874
video-quality-assessment-on-live-vqcFasterVQA (fine-tuned)
PLCC: 0.858
video-quality-assessment-on-youtube-ugcFasterVQA (fine-tuned)
PLCC: 0.859

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
邻域代表性采样用于高效端到端视频质量评估 | 论文 | HyperAI超神经