4 个月前

面向摊销排序关键训练的协同过滤方法

面向摊销排序关键训练的协同过滤方法

摘要

协同过滤在现代推荐系统中被广泛应用。近期研究表明,通过将深度神经网络的灵活表示集成到潜在变量模型中,变分自编码器(VAEs)能够实现最先进的性能,从而缓解了传统线性因子模型的局限性。通常情况下,VAEs 是通过最大化用户与真实项目交互的概率(最大似然估计,MLE)来进行训练的。尽管这种方法简单且通常有效,但基于 MLE 的训练并不能直接优化我们通常关心的推荐质量指标,如 top-N 排名。本文中,我们研究了基于演员-评论家强化学习的新方法来训练协同过滤模型,以直接优化这些不可微的质量指标。具体而言,我们训练一个评论家网络来近似排名指标,并更新由 VAE 表示的演员网络,使其直接针对所学指标进行优化。与传统的排序学习方法不同,后者需要为新的列表重新运行优化过程,而我们的评论家方法通过神经网络摊销评分过程,可以直接为新的列表提供(近似的)排名分数。实验结果表明,在三个大规模真实世界数据集上,所提出的方法优于多个最先进的基线方法,包括最近提出的深度学习方法。用于重现实验结果和图表绘制的代码已托管在 GitHub 上:https://github.com/samlobel/RaCT_CF

代码仓库

samlobel/RaCT_CF
官方
tf
GitHub 中提及

基准测试

基准方法指标
collaborative-filtering-on-million-songRaCT
Recall@20: 0.268
Recall@50: 0.364
nDCG@100: 0.319
collaborative-filtering-on-movielens-20mRaCT
Recall@20: 0.403
Recall@50: 0.543
nDCG@100: 0.434
collaborative-filtering-on-netflixRaCT
Recall@20: 0.357
Recall@50: 0.450
nDCG@100: 0.392

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
面向摊销排序关键训练的协同过滤方法 | 论文 | HyperAI超神经