张量回归及其在神经影像数据分析中的应用
回归分析是数据分析和机器学习领域的关键研究领域之一,它致力于探索变量之间的依赖关系,通常使用向量进行表示。高维数据的出现带来了传统数据表示方法的挑战,而张量作为向量的高维扩展,被认为是高维数据的自然表示。本书对基于张量的回归模型及其应用进行了系统研究和分析,涵盖了已有的方法和理论特性,读者可以了解如何使用这些方法解决多维数据的回归任务以及可用的数据集和软件资源。
Aug, 2023
本文开发了一种类型的回归模型来估计纵向和多元关系数据中成员之间的关系,该模型基于多线性张量回归模型,一种特殊情况是张量自回归模型,可以表示关系和网络数据中经常出现的模式,如互惠和传递性。
Nov, 2014
采用贝叶斯张量回归方法,在长期神经成像研究中,通过调整协变量并跨空间分布的体素进行信息汇集,实现对重要变化的推断,该方法具有降维和保留体素空间形状的优势,可应用于个体级神经可塑性研究和预测,在模拟研究和多周访问情景中验证了该方法相比体素回归在预测和特征选择方面的优越性。
Sep, 2023
通过提取和总结有用的预测信息(由 “因子张量” 表示)并利用张量分解模型将其输入到时间卷积神经网络中,本研究提出了一种因子增强的张量对张量神经网络(FATTNN)。该方法能够处理复杂数据结构之间的非线性关系,并在预测准确性和计算成本方面优于传统的统计模型和常规的深度学习方法。通过利用张量分解模型,提出的方法在提高预测准确性的同时,大幅度减少了数据维度从而加快了计算速度。通过模拟研究和对三个公共数据集的实际应用,验证了提出方法的实证性能,数值结果表明,与基准方法相比,提出的算法在预测准确性方面取得了显著的增加,并且计算时间显著减少。
May, 2024
本文探讨了低秩张量回归模型和高斯过程之间的有趣联系,证明了低秩张量回归模型本质上是学习高斯过程中的多线性核,并将低秩假设转化为约束贝叶斯推断问题。我们证明了神谕不等式,并为等效高斯过程模型推导了平均情况学习曲线。我们的研究发现低秩张量回归虽然在经验上非常成功,但高度依赖协方差函数的特征值和变量相关性。
Oct, 2017
该论文提出了一种灵活的通用低秩张量估计问题的框架,包括计算成像、基因组学和网络分析等应用中的许多重要实例,并通过投影梯度下降的统一方法来克服这些问题的非凸性,以适应底层低秩结构,并证明该算法在估计误差的收敛速度上达到极小值最优率。
Feb, 2020
本文介绍了一种利用子采样张量投影梯度解决海量多维数据的张量回归方法,该方法基于投影梯度法和快速张量幂迭代,利用随机草图进一步加速,理论分析表明,算法能够在固定的迭代次数内收敛到正确的解,内存需求随问题的规模线性增长,并在多线性多任务学习和时空应用上表现出优越的实践性能。
Jul, 2016
本文将全面介绍张量(Tensors)的概念和分解方法,并探讨它们在机器学习中的应用,特别是在无监督学习和多关系数据分析等领域的优越性,同时结合实例研究了张量估计混合模型的基本方法,并提供了相关软件类库的参考。
Nov, 2017
引入张量神经网络(TNN)来处理非参数回归问题,通过其独特的子网络结构,有效地促进变量分离,从而提高复杂未知函数的近似性;与传统的前馈网络(FFN)和径向基网络(RBN)相比,TNN 在近似准确性和泛化能力方面表现优异,尽管参数规模相似;我们的方法的一个关键创新是将统计回归和数值积分集成到 TNN 框架中,从而实现了与回归函数相关的高维积分的高效计算;此进展的意义扩展到更广泛的应用领域,特别是在需要精确高维数据分析和预测的场景。
Jun, 2024
本文介绍了一种新型的神经网络,即 TRNN,它基于张量 Tucker 分解,可以直接使用张量时间序列数据作为输入,避免了使用向量化处理导致空间或纵向维度精确信息丢失的问题,具有更好的长期数据表示效果。
Aug, 2017