关于张量、稀疏性和非负因子分解
本文探讨了基于 Kullback-Leibler divergence 函数的适当的标准交替块变量方法的正定多项式张量分解的有效技术,并提出了新的子问题解算器来利用结构并将优化问题重新表述为小的独立子问题,使用有界的 Newton 和拟牛顿方法。与其他代码比较,表明我们的算法具有更快的速度,能够获得高精度的结果,并迅速找到稀疏解。
Apr, 2013
考虑如何分解具有缺失值的数据集,以捕捉数据的潜在结构并可能重建缺失值。我们开发了一种名为 CP-WOPT 的算法,该算法使用一种一阶优化方法来解决加权最小二乘问题,并通过大量的数值实验验证了该算法的性能良好,能够成功分解噪声数据及缺失数据高达 99%的张量,同时适用于稀疏大规模数据。
May, 2010
本文介绍了一种基于随机最小二乘法的 CANDECOMP / PARAFAC (CP) 分解方法,旨在提高多维数据的分析效率。通过优化 CP-ALS 的个别步骤,如预处理,Khatri-Rao 乘积以及停止条件等,方法可显著缩短计算时间,减少计算所需内存,并提高算法的鲁棒性。
Jan, 2017
本文提出了一种分布式、灵活的非线性张量分解模型,通过可避免昂贵的计算以及提供高质量推理的上限,它能够克服传统张量分解模型中的限制,并展现出在 CTR 预测方面的巨大潜力。
Apr, 2016
本文研究了 CANDECOMP/PARAFAC(CP)张量分解在多维数据降维中的应用,提出了一种基于随机算法的简单但强大的算法来计算大规模张量的近似 CP 分解,并通过多个实验结果证明了该算法的性能。
Mar, 2017
本文提出了一种基于层次概率模型的 CP 张量分解方法,通过整合多个潜在因子和适当的超参数来提供完全贝叶斯处理,以实现自动排序确定,同时提供对缺失条目的预测分布。
Jan, 2014