4 个月前

视觉对象的声音共分离

视觉对象的声音共分离

摘要

从视频中学习物体的声音是一项具有挑战性的任务,因为它们通常在一个音频通道中严重重叠。目前用于视觉引导音频源分离的方法通过使用人工混合的视频片段进行训练来规避这一问题,但这对训练数据的收集施加了不切实际的限制,并且可能阻碍对“真实”混合声音特性的学习。我们引入了一种共分离训练范式,该范式允许从未标记的多源视频中学习物体级别的声音。我们的新训练目标要求深度神经网络为外观相似的物体分离出的声音具有一致的可识别性,同时为每个源训练对生成精确的视频级别音频轨道。我们的方法能够在现实测试视频中解耦声音,即使在训练过程中未曾单独观察到某个物体的情况下也是如此。我们在MUSIC、AudioSet和AV-Bench数据集上取得了视觉引导音频源分离和音频降噪的最先进结果。

代码仓库

rhgao/co-separation
pytorch
GitHub 中提及

基准测试

基准方法指标
audio-denoising-on-av-bench-guitar-soloCo-Separation
NSDR: 11.9
audio-denoising-on-av-bench-violin-yanniCo-Separation
NSDR: 8.53
audio-denoising-on-av-bench-wooden-horseCo-Separation
NSDR: 14.5
audio-source-separation-on-audiosetCo-Separation
SAR: 13
SDR: 4.26
SIR: 7.07
audio-source-separation-on-music-multi-sourceCo-Separation
SAR: 11.3
SIR: 13.8

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
视觉对象的声音共分离 | 论文 | HyperAI超神经