
摘要
在本文中,我们提出了一种新颖且高效的无训练视频摘要方法——TAC-SUM,该方法通过引入时间上下文来解决现有基于聚类模型的局限性。我们的方法将输入视频划分为时间上连续的片段,并结合聚类信息,从而在聚类过程中注入时间感知能力,这使得我们的方法区别于以往的基于聚类的摘要生成方法。生成的时间感知聚类结果随后用于计算最终摘要,采用简单的规则进行关键帧选择和帧重要性评分。我们在SumMe数据集上的实验结果表明,所提出的TAC-SUM方法不仅优于现有的无监督方法,而且其性能与最先进的有监督摘要技术相当。我们的源代码可在以下网址获取以供参考:\url{https://github.com/hcmus-thesis-gulu/TAC-SUM}。
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| unsupervised-video-summarization-on-summe | TAC-SUM | F1-score: 54.48 |