- 重新思考隐式神经表示的非负矩阵分解
非负矩阵分解 (Non-negative Matrix Factorization, NMF) 是一种强大的用于分析规则采样数据的技术,本文将 NMF 表述为连续函数的形式,并展示 NMF 可以扩展到更多不需要规则采样的信号类别。
- 非线性电阻网络的通用逼近定理
该论文研究了电阻网络作为能效自学习机器的基底的计算能力,并证明电压源、线性电阻、二极管和电压控制电压源(VCVS)组成的电阻网络能够实现任意连续函数,为设计自学习电阻网络提供了建设性的证明方法。
- 关于 Kolmogorov 神经网络
本文通过 Kolmogorov 两层神经网络模型展示了第二隐藏层中采用连续、不连续有界或无界的激活函数可以精确表示连续函数、不连续有界函数和所有无界多元函数。
- CVPR超分辨率神经算子
提出了一种深度操作学习框架 “SRNO”,它通过将低分辨率图像对作为使用不同网格大小逼近的连续函数来实现将高分辨率图像从低分辨率图像中恢复,其中关键特点是使用 Galerkin-type 注意力的内核积分和多层注意力结构的动态潜在基础更新。
- ICLR扩散概率场
本文介绍了一种新的扩展 Diffusion probabilistic models 方法的方法 Diffusion Probabilistic Fields (DPF), 可用于在度量空间中学习定义为连续函数的概率分布,通过将场参数化作为 - ICML$C^*$- 代数网络:一种将神经网络参数推广到 $C^*$- 代数的新方法
本文提出了一个新的框架,将神经网络模型的参数推广为 $C^*$ 代数值。我们将其应用于实际问题,并展示了该框架即便在样本数量有限的情况下也能够有效地学习数据特征,从而为将 $C^*$ 代数理论应用于神经网络模型打下了坚实的基础。
- 生成模型作为函数分布
以连续函数参数化单个数据点,用生成对抗学习方法训练生成模型,达到基于数据类型和分辨率的抽象和多模态学习。
- CKConv:连续核卷积用于序列数据
本文提出一种新的卷积神经网络架构,通过将卷积核建模为连续函数,解决了传统神经网络处理序列数据时的梯度爆炸、记忆短视、非定长序列等问题,并在多个数据集上获得了最先进的结果。
- Wasserstein 梯度流的近似推断
该研究论文介绍了一种基于 Wasserstein 梯度流的扩散过程的新近似推理方法,该方法直接在连续函数空间中计算 Wasserstein 梯度流,并具有可比拟的过滤能力。