Jun, 2024

尺度等变图元网络

TL;DR该论文介绍了一种新兴的机器学习范式:学习高阶函数,特别是当这些函数的输入是神经网络时,尤其关注于与神经网络参数化中的排列对称性不同的扩展对称性,即缩放对称性。研究者提出了一种名为 ScaleGMNs 的框架,通过整合缩放对称性来使神经元和边的表示对于有效的缩放是等变的,并证明了它可以模拟任何输入前馈神经网络的前向和反向传递过程。实验结果表明,该方法在几个数据集和激活函数的性能上取得了领先的状态,突显了缩放对称性作为神经网络处理的一个归纳偏好的能力。