
摘要
实际应用可从自动生成精细化照片美学评分的能力中获益。然而,以往的图像美学分析方法主要集中在将图像粗略地划分为高美学或低美学两类的二元分类上。本文提出了一种深度卷积神经网络,用于对照片美学进行排序,其中照片美学的相对排序关系直接在损失函数中建模。我们的模型结合了有意义的摄影属性与图像内容信息的联合学习,有助于对复杂的照片美学评分问题进行正则化。为训练和分析该模型,我们构建了一个新的美学与属性数据库(Aesthetic and Attributes Database, AADB),其中包含由多位人类评分者为每张图像标注的美学分数和有意义的属性信息。评分者身份在不同图像间被匿名记录,使得我们能够在计算训练图像对的排序损失时,采用一种新颖的采样策略,利用评分者内部的一致性。实验表明,该采样策略在面对具有不同审美偏好的个体主观判断时,仍表现出极强的有效性与鲁棒性。实验结果表明,所提出的统一模型生成的美学排序结果与人类评分更加一致。为进一步验证模型性能,我们还发现,仅通过简单地对估计的美学分数设定阈值,即可在现有的AVA数据集基准上实现当前最优的分类性能。
代码仓库
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| aesthetics-quality-assessment-on-ava | ADB-CNN | Accuracy: 77.3% |