
摘要
食品检索是开展食品相关信息分析的重要任务,其目标是针对查询的食品项目,获取与其相关的各类信息,如食材构成、烹饪步骤等。本文研究了食品图像与烹饪食谱之间的跨模态检索问题。其核心目标是学习图像与食谱在统一特征空间中的嵌入表示,使得对应图像与食谱的嵌入向量在该空间中彼此接近。解决该问题面临两大挑战:一是跨模态食品数据中存在较大的类内差异(intra-variance)和较小的类间差异(inter-variance);二是难以获得具有判别性的食谱表示。为应对上述挑战,本文提出一种基于语义一致性与注意力机制的网络模型——语义一致且基于注意力的网络(Semantic-Consistent and Attention-based Networks, SCAN)。该模型通过对齐两类模态的输出语义概率分布,对图像与食谱的嵌入进行正则化约束;同时,引入自注意力机制(self-attention mechanism)以增强食谱的表示能力。我们在大规模 Recipe1M 数据集上对所提方法进行了评估,实验结果表明,该方法在食品图像与烹饪食谱的跨模态检索任务中,显著优于多种现有的先进方法。
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| cross-modal-retrieval-on-recipe1m | SCAN | Image-to-text R@1: 54.0 Text-to-image R@1: 54.9 |