平方神经族:一种新的可计算密度模型类
通过将强度函数的参数化为一个两层神经网络的平方范数,引入了平方神经泊松点过程(SNEPPPs)。我们的方法在固定隐藏层且第二层只有一个神经元的情况下,类似于以前使用平方高斯过程或核方法的方法,但允许学习隐藏层可以提供额外的灵活性。在许多感兴趣的情况下,积分强度函数具有封闭形式,并且可以在隐藏神经元数量的二次时间内计算。我们列举了比以前讨论的更多这样的示例。我们的方法比平方或指数核方法或高斯过程的朴素实现更节省内存和时间。可以通过使用投影梯度下降解决(强)凸优化问题来获得强度函数最终层的重参数化的最大似然估计和最大后验估计。我们在真实和合成基准测试上演示了 SNEPPPs,并提供了一个软件实现。
Feb, 2024
我们介绍了可扩展的神经网络内核 (SNNK),它们是正常前馈层 (FFLs) 的替代品,能够近似表示后者,但具有有利的计算属性。SNNK 有效地将输入从 FFL 的参数中分离出来,然后通过点积内核在最终计算中将它们连接起来。它们也更具表达力,能够模拟超出参数 - 输入矢量点积函数之外的复杂关系。我们还介绍了神经网络捆绑过程,将 SNNK 应用于压缩深度神经网络架构,从而获得额外的压缩收益。在其极端版本中,它导致完全捆绑的网络,其最优参数可以通过显式公式表示出来,适用于多个损失函数 (例如均方误差),开启了绕过反向传播的可能性。作为我们分析的产物,我们介绍了通用随机特征 (URFs) 机制,用于实例化多种 SNNK 变体,并在可扩展内核方法的背景下引发了有趣的研究。我们对所有这些概念进行了严格的理论分析,并进行了广泛的实证评估,包括点状内核估计和受 SNNK 启发的适配器层的 Transformer 微调。我们的机制可以将可训练参数的数量减少 5 倍,同时保持竞争力的准确性。
Oct, 2023
SNPE-B 是一种用于模拟为基础模型的顺序神经后验估计技术,本文提出了改进的方法,包括使用自适应校准核的集中损失函数和方差降低技术,以提高数据效率并加快学习过程。实验结果表明,我们的方法在某些任务上表现优于原始方法和其他竞争方法。
Nov, 2023
提供了一种通过学习深度网络参数化的核函数来建模复杂结构的密度模型方法,相较于利用最大似然拟合的深度密度模型,虽然前者可能会得到更高似然度,但后者提供了更好描述分布形状的对数密度梯度得到更好的估计,二者有不同的优缺点。
Nov, 2018
本文介绍了一种名为自标准神经网络 (SNNs) 的新型前馈神经网络,使用放缩指数线性单元 (SELU) 激活函数,自动进行归一化处理,并具有极高的性能表现,可以在多个机器学习任务中超越标准的前馈神经网络。
Jun, 2017
本文介绍了对高斯神经网络的一些非症态量化高斯逼近,用一些流行距离(如 $1$-Wasserstein 距离、总变分距离和 Kolmogorov-Smirnov 距离)量化逼近误差,这依赖于二阶高斯 Poincaré 不等式提供的非常紧密的逼近误差估计,有最佳的速率。这是二阶高斯 Poincaré 不等式的一项新应用,在概率文献中被认为是获得高斯随机过程一般泛函的高斯逼近的有力工具。还讨论了到深层高斯神经网络的推广。
Apr, 2023
本文提出了一种新的中间随机模型,称为简化 SFNN,该模型可以建立在任何基线 DNN 之上,并通过简化其上部随机单元来近似某些 SFNN。我们将 DNN-> Simplified-SFNN-> SFNN 三个模型联系在一起,从而自然地引导随机模型的高效训练过程,利用 DNN 的预训练参数。使用多个流行的 DNN,我们展示了如何将它们有效地转移到相应的随机模型,以进行 MNIST,TFD,CASIA,CIFAR-10,CIFAR-100 和 SVHN 数据集的多模态和分类任务。
Apr, 2017