
摘要
零样本音频字幕生成旨在自动为音频内容生成描述性的文字字幕,而无需为此任务进行预先训练。不同于将包含口语的音频内容转换为文本的语音识别,音频字幕生成通常关注环境声音或人类执行动作时产生的声音。受零样本图像字幕生成方法的启发,我们提出了一种新的框架ZerAuCap,用于在无需特定任务训练的情况下对这类通用音频信号进行文字总结。具体而言,我们的框架利用了一个预训练的大规模语言模型(LLM),该模型在预训练的音-语模型的引导下生成描述音频内容的字幕。此外,我们还使用了音频上下文关键词来提示语言模型生成与声音广泛相关的文本。我们在AudioCaps和Clotho数据集上实现了零样本音频字幕生成的最先进结果。我们的代码可在https://github.com/ExplainableML/ZerAuCap 获取。
代码仓库
explainableml/zeraucap
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| zero-shot-audio-captioning-on-audiocaps | ZerAuCap | BLEU-4: 6.8 CIDEr: 28.1 METEOR: 12.3 ROUGE-L: 33.1 SPICE: 8.6 SPIDEr: 18.3 |
| zero-shot-audio-captioning-on-audiocaps | No audio (baseline) | BLEU-4: 0 CIDEr: 0.1 METEOR: 4.1 ROUGE-L: 17.8 SPICE: 0 SPIDEr: 0 |
| zero-shot-audio-captioning-on-clotho | ZerAuCap | BLEU-4: 2.9 CIDEr: 14 METEOR: 9.4 ROUGE-L: 25.4 SPICE: 5.3 SPIDEr: 9.7 |