椭圆轮廓张量变量分布及其在图像学习中的应用
本文研究了一种高效的参数估计方法,可用于广泛的潜变量模型,特别是那些具有张量结构的模型,包括高斯混合模型、隐马尔可夫模型和潜在狄利克雷分配模型,通过对表示模型可观测矩阵的低阶矩(通常为二阶和三阶)的张量进行分解获得。方法为鲁棒性较强、可有效计算,并可应用于多个流行的潜变量模型。
Oct, 2012
本文介绍了使用核方法进行多视图潜变量模型学习的理论。方法利用复现核希尔伯特空间嵌入多视图潜变量的联合分布,并提出了一种有效的张量幂法来恢复潜变量参数。实验结果展示了该非参数模型在多个方面都优于现有光谱算法和EM算法。
Nov, 2013
研究 overcomplete 模型下的潜在变量模型,提供了一种基于张量分解方法的半监督和无监督学习算法,能够高效地学习各种高维度潜在变量模型。
Aug, 2014
本文提出了一种新颖的张量幂迭代动力学分析,适用于张量 CP 分解在超完备情况下的情形,并应用该分析扩展了可以使用谱方法的潜变量模型的类,同时考虑了输入张量中的噪声。
Nov, 2014
本文介绍了张量网络及其运算的简介并侧重于介绍用于数据/参数的超压缩高阶表示的张量网络模型及其应用, 包括支持张量机、求广义特征值、深度神经网络等优化问题的张量分解方法,如张量列车和分层 Tuck 分解,并通过图形方法以及基于核张量的低秩张量近似来解释张量网络是如何能够在大量数据上执行分布式计算的。
Aug, 2017
该论文提出了一种灵活的通用低秩张量估计问题的框架,包括计算成像、基因组学和网络分析等应用中的许多重要实例,并通过投影梯度下降的统一方法来克服这些问题的非凸性,以适应底层低秩结构,并证明该算法在估计误差的收敛速度上达到极小值最优率。
Feb, 2020
该研究介绍了两种机器学习建模方法——不变性随机特征和不变性核方法,其中不变性核方法包括全局平均池化的卷积神经网络的神经切比雪夫核。研究表明,建立不变性机制使得机器学习模型样本容量和隐藏层单元数量成指数降低,从而在保持测试误差不变的情况下提高统计效率。此外,研究表明,数据增广与无结构核估计等价于一个不变性核估计,具有相同的统计效率。
Feb, 2021
本文提出了一种在线低秩张量恢复的概括性框架,包括线性和广义线性模型,特别地,在线张量补全和在线二进制张量学习的应用中,通过在线黎曼梯度下降算法实现了线性收敛并在所有应用程序中恢复了低秩分量,还在在线张量回归方面进行了悔恨分析,通过数值结果验证了理论结论。
Jun, 2023
回归分析是数据分析和机器学习领域的关键研究领域之一,它致力于探索变量之间的依赖关系,通常使用向量进行表示。高维数据的出现带来了传统数据表示方法的挑战,而张量作为向量的高维扩展,被认为是高维数据的自然表示。本书对基于张量的回归模型及其应用进行了系统研究和分析,涵盖了已有的方法和理论特性,读者可以了解如何使用这些方法解决多维数据的回归任务以及可用的数据集和软件资源。
Aug, 2023
这篇论文提出了一种用于表示张量卷积层的统一框架,以及一种能够以最小化浮点操作数(FLOPs)的方式评估这些框架的方法,实验证明 conv_einsum 显著提高了卷积张量网络的计算和内存效率。
Jan, 2024