4 个月前

神经网络矩阵分解

神经网络矩阵分解

摘要

数据通常以数组或矩阵的形式出现。矩阵分解技术通过假设矩阵可以表示为两个低秩矩阵的乘积,来尝试恢复缺失或损坏的条目。换句话说,矩阵分解通过一个简单的、固定的函数——即内积——作用于相应行和列的潜在特征向量,来近似矩阵中的条目。本文考虑用从数据中同时学习到的任意函数替代内积。具体而言,我们用一个多层前馈神经网络替代内积,并通过在固定潜在特征向量的情况下优化网络,以及在固定网络的情况下优化潜在特征向量,交替进行学习。由此产生的方法——我们简称为神经网络矩阵分解(Neural Network Matrix Factorization, NNMF)——在一系列基准测试中优于标准的低秩技术,但在利用图特征的一些最新提案面前表现逊色。鉴于NNMF框架内可使用的架构、激活函数、正则化器和优化技术种类繁多,似乎该方法的真正潜力尚未完全发挥。

基准测试

基准方法指标
collaborative-filtering-on-movielens-1mNNMF
RMSE: 0.843

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
神经网络矩阵分解 | 论文 | HyperAI超神经