HybridSVD: 当协同信息不足时
本文提出了一种将自编码器范式与矩阵分解相结合的新型混合模型,通过建模内容信息的有效性和紧凑性的表示,并利用隐式用户反馈进行精准推荐,从而优化项目推荐,实验结果表明该方法优于比较方法。
Apr, 2017
本研究提出了一种高效的算法,叫做球形归一化奇异值分解 (SVD),用于稳健的奇异值分解近似,对异常值不敏感、可扩展的计算,提供准确的奇异向量估计。该算法通过仅使用标准降秩奇异值分解算法对适当缩放的数据进行两次计算,实现了显著的计算速度,并在计算时间上明显优于竞争算法。为评估估计奇异向量及其子空间的稳健性,我们引入了矩阵型输入的新的破坏点概念,包括按行、按列和按块的破坏点。理论和实证分析表明,与标准 SVD 及其修改相比,我们的算法具有更高的破坏点。我们在高维微阵列数据集的鲁棒低秩逼近和鲁棒主成分分析等应用中,经验地验证了我们方法的有效性。总体而言,本研究提供了一种高效且稳健的 SVD 近似解决方案,克服了现有算法在异常值存在时的局限性。
Feb, 2024
通过 Federated Learning 框架的机制,我们提出了一种叫做 FedPower 的算法以支持现代设备用户集体学习中的部分奇异值分解。该算法通过多个本地迭代和全局聚合的替换,以改进通信效率,并解决了用户数据隐私保护的问题。
Mar, 2021
通过设计一种基于奇异向量分解(SVD)的线性自编码器,该研究提出了一种简单而有效的 SVD-AE 算法,该算法不需要迭代训练过程,可以通过 SVD 的闭式解进行计算,提高了推荐系统的噪声容忍性和效率。
May, 2024
本文采用高维回归问题的解析解取代计算开销大的 SLIM 方法,通过重新缩放处理 item-popularities 偏差,得到了稀疏解的性质,并且在三个公共数据集的实验中,相对于 SLIM 在准确度和训练时间上均有显著提高,同时在高度个性化推荐方面,还优于多种最新的非线性自动编码器等模型。
Apr, 2019
通过对 Graph Convolutional Networks 在推荐系统中的应用进行研究,提出了一种名为 SVD-GCN 的简化 GCN 学习的范例,并通过该方法仅利用 K 个最大奇异向量来提高推荐系统的性能,大幅度缓解了平滑问题。实验证明,该方法不仅显著优于现有技术,而且相对于 LightGCN 和 MF 分别实现了 100x 和 10x 的加速效果。
Aug, 2022
本文介绍了随机 SVD 方法的推广版,使用多元高斯向量代替标准高斯向量进行矩阵 - 向量乘积,以允许将先前的知识加入算法中,进而探索基于高斯过程函数的 Hilbert-Schmidt(HS)算子的随机 SVD 的连续模拟。文中提出了一种新的基于加权 Jacobi 多项式的协方差核,从而使随机生成的函数具有良好的平滑性,再通过数值实验证明其适用性。
May, 2021
提出了一种基于 Fisher 信息的 SVD 压缩方法(FWSVD),它可以通过加权计算参数的重要性来降低模型压缩中优化目标与模型任务的目标不匹配的问题,该方法适用于任务特定模型并且可以取得比其他紧凑模型策略更好的性能和更高的压缩率。
Jun, 2022