3 个月前

大规模物品目录下序列推荐的可扩展交叉熵损失

大规模物品目录下序列推荐的可扩展交叉熵损失

摘要

可扩展性问题是将现代推荐系统投入实际应用过程中的关键挑战。即使采用轻量级模型架构,也可能因中间计算过程带来过高的计算负担,从而限制其在真实场景中的实用性。具体而言,采用完整的交叉熵(Cross-Entropy, CE)损失函数通常能在推荐质量方面达到当前最优性能,但在处理大规模物品目录时,会引发GPU内存资源的过度占用。本文提出一种面向序列学习场景的新型可扩展交叉熵(Scalable Cross-Entropy, SCE)损失函数,能够有效近似大规模目录数据集下的CE损失,在不损害推荐质量的前提下,显著提升计算效率并降低内存消耗。与传统的负采样方法不同,本方法采用一种选择性且GPU高效的计算策略,聚焦于物品目录中最具信息量的元素,尤其是最可能产生假阳性(false positives)的候选项。该策略通过最大内积搜索(Maximum Inner Product Search, MIPS)对模型输出的子集进行softmax分布的近似计算,从而实现高效且精准的损失估计。在多个数据集上的实验结果表明,SCE方法相较于现有方案,可将峰值内存使用量降低高达100倍,同时在推荐性能指标上保持甚至超越原有方法的表现。该方法不仅为大规模推荐系统的高效实现提供了新思路,也为其他领域的大规模模型发展(如大语言模型)开辟了新的技术路径。

代码仓库

AIRI-Institute/Scalable-SASRec
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
sequential-recommendation-on-amazon-beauty-1SASRec-SCE
HR@10: 0.0935
NDCG@10: 0.0544
sequential-recommendation-on-behanceSASRec-SCE
COV@1: 0.0393
COV@10: 0.25
COV@5: 15.3
HR@10: 0.113
HR@5: 0.0853
NDCG@1: 0.0277
NDCG@10: 0.0663
NDCG@5: 0.0572
sequential-recommendation-on-gowallaSASRec-SCE
COV@1: 0.0304
COV@10: 0.2190
COV@5: 0.126
HR@10: 0.0831
HR@5: 0.0574
NDCG@1: 0.0207
NDCG@10: 0.0476
NDCG@5: 0.0393

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
大规模物品目录下序列推荐的可扩展交叉熵损失 | 论文 | HyperAI超神经