Aug, 2017

协同过滤的深度自编码器训练

TL;DR本文提出了一种基于深度自编码器的新模型,通过对 Netflix 数据集进行评分预测任务,相对于之前的模型具有明显优势。该模型不需要层预训练,采用 6 层自编码器进行端到端的训练,通过实验证明:深度自编码器模型的泛化能力比浅层模型更好,负部分的非线性激活函数对于训练深度模型至关重要,必须大量采用正则化技术,如 dropout,以防止过拟合。此外,我们提出了一种基于迭代输出反馈的训练算法,以克服协作过滤的自然稀疏性,该算法显著加速了训练并改善了模型性能。