稀疏生物数据快速双正则化自编码器
本研究提出一种基于简单元素的线性模型,针对推荐系统的稀疏数据和隐式反馈数据,并展示其训练目标具有闭式解,该简单模型在所有公开数据集上都取得了比深度非线性模型更好的排名准确性。
May, 2019
该文提出了一个数据驱动的方法,使用深度学习中的自动编码器来共同设计复杂稀疏信号的测量矩阵和支持恢复方法,该方法可以有效地利用稀疏性质,具有低计算复杂度,并在设备活动检测中取得了显著的性能提升。
Oct, 2019
本文介绍了一种用于推荐系统的基于自编码器的架构,通过使用适用于缺失数据的损失函数和引入侧面信息来改进其性能。实验证明,侧面信息对冷启动用户 / 物品的影响更显著。
Jun, 2016
通过使用自动编码器学习算法对稀疏高维数据进行压缩,实现对临床笔记的表征特征空间的稀疏性减少,从而提高分类器的分类性能,最终该分类器在检测患者状况时的准确率可达到 92%,召回率、精确率和 f1-score 均为 91%。此外,理论信息瓶颈框架也被应用于该压缩工作机制和自动编码器预测过程的演示。
Sep, 2022
稀疏自编码器在处理高维数据中提取低维表示方面具有实用性。然而,当测试时输入噪声与训练过程中使用的噪声不同时,其性能会显著降低。本文将单隐藏层稀疏自编码器形式化为一种转换学习问题,并提出了一个优化问题,导致了预测模型在测试时对噪声水平具有不变性。换句话说,同样的预训练模型能够泛化到不同的噪声水平。通过基于平方根 Lasso 的提出的优化算法,将其转换成一个新的计算效率高的自编码器架构。通过证明我们的新方法对噪声水平具有不变性,我们通过在去噪任务中使用提出的架构训练网络来评估我们的方法。实验结果表明,与常用的架构相比,训练模型在稳定性上在各种不同类型的噪声情况下有显著改善。
Jun, 2024
本文提出了一种基于深度自编码器的新模型,通过对 Netflix 数据集进行评分预测任务,相对于之前的模型具有明显优势。该模型不需要层预训练,采用 6 层自编码器进行端到端的训练,通过实验证明:深度自编码器模型的泛化能力比浅层模型更好,负部分的非线性激活函数对于训练深度模型至关重要,必须大量采用正则化技术,如 dropout,以防止过拟合。此外,我们提出了一种基于迭代输出反馈的训练算法,以克服协作过滤的自然稀疏性,该算法显著加速了训练并改善了模型性能。
Aug, 2017
研究了应用矩阵分解和自编码器两种方法来解决稀疏图中的链接预测问题,提出了一种名为 MF + AE 的新模型,并表明这两种方法尤其在多视图学习方面是有联系的。在六个真实的稀疏图数据集上进行了实验,表明 MF + AE 明显优于竞争方法,特别是在展现出强非凝聚结构的数据集上。
Dec, 2015
这篇研究论文从图的角度考虑了推荐系统的矩阵填充问题,提出了一个基于可微分消息传递的自编码器框架,并在该领域常用的协同过滤数据集中表现出了良好的性能,尤其是在结构化数据和社交网络数据等背景信息充足的场景中的表现更为优异。
Jun, 2017
使用高维稀疏特征表达式通过 L1 正则化的自编码器产生的信息丰富潜在空间,可以有效地用于科学数据压缩,解决高性能分布式计算环境下传输、存储和分析的瓶颈问题。
May, 2024