关键词tensor train decomposition
搜索结果 - 8
- 层次 Tucker 分解的黑盒逼近与优化
我们开发了一种新的方法 HTBB 用于多维黑盒逼近和无梯度优化,它基于低秩分层 Tucker 分解,并采用 MaxVol 指标选择过程。通过对 14 个复杂模型问题的数值实验,证明了该方法在维度为 1000 的情况下的稳健性,相较于经典的无 - TT-Rec: 深度学习推荐模型的张量列车压缩
本文研究了深度学习推荐模型中嵌入表的内存容量问题并提出了 Tensor Train 分解的解决方案。通过优化成熟度更低的 TT-Rec 及其核心部件 TT-EmbeddingBag,它在 Kaggle 和 Terabyte 数据集上均实现了 - 用张量嵌入层实现模型高效压缩
本文介绍了一种使用 Tensor Train(TT)分解来压缩模型中的嵌入层的新方法,并在自然语言处理的广泛基准测试中评估了其性能与压缩比之间的平衡。
- ICLR循环神经网络的表达能力
本文证明 Tensor Train 分解的一类循环神经网络的表达能力理论上是指数级别的,与 Hierarchical Tucker 张量分解所对应的深度卷积网络相比,使用 RNN 对图像进行逐块处理可以比使用仅具有一个隐藏层的 (浅层) 卷 - 使用张量列车分解实现数十亿个诱导输入的可扩展高斯过程
利用张量列车分解为变分参数的高斯过程建模方法,实现具有数十亿个输入点培训和端到端训练的深度神经网络和高斯过程回归 / 分类器的最新结果优化。
- 张量列车秩最小化:统计效率和可扩展算法
本文提出了一种基于张量分解的方法,通过引入凸弛松弛的方法和随机化技术构建一种具有可扩展性的交替优化算法,用于高维张量的完成任务,实验结果表明了该方法的性能。
- 利用环结构网络学习高效张量表示
提出一种称为张量环表示的新型张量分解的网络结构,该结构采用低阶核张量的循环多线性乘积,通过低秩近似的方法来有效地学习张量环表示,可以在计算上更有效地执行基本操作,并且通过与现有的张量列网络相比实验结果表明,该模型更具表达能力和一致性信息。
- 张量环分解
本文介绍了一种基本的张量分解模型:张量环分解,它能够通过一系列低维张量核的圆形多线性乘积来代表高维张量,并能够实现循环维度置换不变性,同时与 TT 分解具有相似的广泛表示能力。文章通过四种不同的算法对潜在核的优化进行了讨论,并探究了 TR