
摘要
设计支持烹饪活动的强大工具近年来因海量数据的可用性和机器学习在分析这些数据方面取得的最新进展而迅速受到关注。本文提出了一种跨模态检索模型,该模型在共享表示空间中对齐视觉和文本数据(如菜肴图片及其食谱)。我们描述了一种有效的学习方案,能够解决大规模问题,并在包含近100万张图片与食谱配对的Recipe1M数据集上对其进行了验证。我们展示了该方法相对于先前最先进模型的有效性,并呈现了计算烹饪应用场景中的定性结果。
代码仓库
Cadene/recipe1m.bootstrap.pytorch
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| cross-modal-retrieval-on-recipe1m | AdaMine | Image-to-text R@1: 39.8 Text-to-image R@1: 40.2 |