随机深度网络
研究设计用于基于集合的机器学习任务模型的问题,提出一种特殊结构的函数族,设计可以在未监督和监督学习任务中应用的深度网络架构,并演示了在人口统计估计,点云分类,集扩展和异常检测等任务上的应用。
Mar, 2017
该论文将神经网络的密度证明扩展到在概率密度函数紧致集合中的连续函数,进而给出了树形结构域的通用逼近定理,在结构化数据处理中具有重要的实际应用,这是 AutoML 范例的一个很好的例子。
Jun, 2019
传统机器学习算法通常基于假设输入数据以向量形式存在,重点关注以向量为中心的范式。然而,随着需要处理基于集合输入的任务的增长,研究界面对这些挑战的关注已发生了范式转变。近年来,像 Deep Sets 和 Transformers 这样的神经网络架构的出现,为处理基于集合的数据提供了重大进展。这些架构专门设计用于自然地处理集合作为输入,从而更有效地表示和处理集合结构。因此,出现了大量致力于探索和利用这些架构在近似集合函数方面的能力的研究努力。这篇综述旨在概述有关近似集合函数的神经网络的多样化问题设置和正在进行的研究工作。通过深入研究这些方法的复杂性并阐明相关挑战,这篇综述旨在使读者全面了解该领域。通过这个全面的视角,我们希望研究人员可以获得关于基于集合神经网络的潜在应用、固有限制和未来发展方向的有价值的见解。事实上,通过这篇综述,我们得出两个观察结果:i) Deep Sets 及其变种可以通过聚合函数的差异进行泛化;ii) Deep Sets 的行为对聚合函数的选择敏感。通过这些观察结果,我们展示了 Deep Sets 这一众所周知的具有置换不变性的神经网络可以在拟合类算术平均意义上进行泛化。
Mar, 2024
我们提出了一种使用精神病医学数据进行 Alzheimer 疾病组差异分析的卷积神经网络框架,并介绍了如何在计算过程中考虑 Riemann 流形结构。
Oct, 2019
本文主要研究了定义在概率度量上的神经网络的学习和表示,通过研究不同正则化选择下的近似和泛化界限,建立了一个具有不同非线性学习程度的功能空间等级体系,从而解决了对称函数的泛化问题。
Aug, 2020
通过置换不变网络将样本从概率测度映射到低维空间,使编码样本之间的欧几里得距离反映概率测度之间的 Wasserstein 距离,进一步证明了该网络可以推广到正确计算未见密度之间的距离,并且可以学习到概率分布的第一和第二矩。
Oct, 2020
通过统一的几何原理,深度学习可以更好地揭示基本规律,提供数学框架来研究卷积神经网络、循环神经网络、图神经网络和变压器网络等神经网络,且可以将物理学知识结合到神经网络结构中,从而提供了未来神经网络结构的原则性方法。
Apr, 2021
神经网络在生活中起着至关重要的作用,最现代的生成模型能够取得令人印象深刻的结果。本文将几何框架应用于研究神经网络,探讨卷积、残差和递归神经网络,以及非可微激活函数的情况,并通过图像分类和热力学问题的数值实验来说明研究结果。
Apr, 2024
本文研究了基于 Riemann 流形的时间序列测量数据的统计循环网络模型,通过有效算法和严格分析统计性质,证明了其与现有方法相比表现相当并参数更少,同时在大脑成像的统计分析任务中得到了应用。
May, 2018
本研究证明深度神经网络具有保留核心信息、能准确处理不同类别数据和传递关于未见数据的信息等重要属性,同时实现距离保持嵌入,并验证此结果适用于现有各类深度神经网络。
Apr, 2015