自编码推荐器的结构学习
本文提出了一种基于深度自编码器的新模型,通过对 Netflix 数据集进行评分预测任务,相对于之前的模型具有明显优势。该模型不需要层预训练,采用 6 层自编码器进行端到端的训练,通过实验证明:深度自编码器模型的泛化能力比浅层模型更好,负部分的非线性激活函数对于训练深度模型至关重要,必须大量采用正则化技术,如 dropout,以防止过拟合。此外,我们提出了一种基于迭代输出反馈的训练算法,以克服协作过滤的自然稀疏性,该算法显著加速了训练并改善了模型性能。
Aug, 2017
本研究提出一种基于简单元素的线性模型,针对推荐系统的稀疏数据和隐式反馈数据,并展示其训练目标具有闭式解,该简单模型在所有公开数据集上都取得了比深度非线性模型更好的排名准确性。
May, 2019
本文提出了一种基于梯度的方法,将组合结构学习问题转化为连续优化问题,并进一步应用于图自编码器框架中,以应用于非线性结构方程模型以及向量值变量的因果结构学习。作者在合成数据集上进行了实验,结果表明这种方法在大型因果图中明显优于其他基于梯度的方法,而且在图的规模扩大时,方法的可扩展性和效率表现均表现良好。
Nov, 2019
本文提出了一种称为 Structuring AutoEncoders 的神经网络,其可以使用弱监督形成结构化的低维空间,从而更有效地表示并分类数据。在基准图像数据集 MNIST、Fashion-MNIST、DeepFashion2 以及 3D 人体形状数据集上进行的实验表明,结构潜空间可以为进一步的分类任务和分类数据的有效选择的操作提供更高效的表征。
Aug, 2019
本文介绍了一种用于推荐系统的基于自编码器的架构,通过使用适用于缺失数据的损失函数和引入侧面信息来改进其性能。实验证明,侧面信息对冷启动用户 / 物品的影响更显著。
Jun, 2016
该论文提出了一种利用变分自编码器从辅助信息中学习特征表示和同时恢复用户评分和辅助信息的方法,相较于现有的基于辅助信息的推荐方法,其具有更高的效果
Jul, 2018
文章提出了 Collaborative Reflection-Augmented Autoencoder Network (CRANet) 相关理论,旨在解决在训练阶段中由缺省数据引入的负信号所带来的推荐性能下降问题,并通过实验验证 CRANet 相比于其他推荐技术可以显著改善推荐问题的性能。
Jan, 2022