等变换器即所需
本文提出了 LieTransformer,这是一种由 LieSelfAttention 层组成的网络结构,可以处理不同类型的 Lie 群及其离散子群的不变性,并通过实验表现出一定的竞争力,可以在点云形状计数、分子属性回归、粒子在哈密顿动力学下的轨迹建模等方面提升数据效率。
Dec, 2020
使用 Lie 莱标甲,文章研究了几百个预训练模型,证明即使在没有明确建构且具有对称性的设计的情况下,Transformers 也可以比 CNNs 更具有等变性。
Oct, 2022
对称性在深度学习中作为归纳偏置已经被证明是一种高效的模型设计方法。然而,在神经网络中对称性与等变性的关系并不总是显而易见。本研究分析了等变函数中出现的一个关键限制:它们无法针对单个数据样本进行对称性打破。为此,我们引入了一种新的 “放松等变性” 的概念来规避这一限制。我们进一步展示了如何将这种放松应用于等变多层感知机(E-MLPs),从而提供了一种与注入噪声方法相对的选择。随后,讨论了对称性打破在物理学、图表示学习、组合优化和等变解码等各个应用领域的相关性。
Dec, 2023
本研究建立了多尺度同变 GNN 模型用于预测流体流动情况,并研究了同变和不变表示方法对模型预测的影响,结果表明使用不变量可以更准确地预测长期流体流动情况且这些不变量可以通过数据驱动编码器学习。
May, 2023
通过研究发现,即使强制施加不完全匹配于领域对称性的 equivariance 约束,也能显著提高机器学习环境中对真实对称性的学习效率和性能。在强制施加 extrinsic symmetry 的情况下,在具有潜在对称性的领域中,equivariant model 的表现优于 non-equivariant 方法。
Nov, 2022
本文提出的 Equiformer 是一种图神经网络,利用变换器架构的优势,并结合基于不可约表示(irreps)的 SE (3)/E (3) 等变特征,取得了在 QM9、MD17 和 OC20 数据集上与之前模型相当的好的性能。
Jun, 2022
将诱导偏差引入机器学习模型是机器学习研究的一个活动领域,特别是当机器学习模型被应用于关于物理世界的数据时。本文从相关的等变网络的文献中汲取灵感,通过使用真实世界的粒子物理重建任务作为评估测试平台,全面评价了等变图神经网络的提议的好处。我们证明了许多通常与等变网络相关联的理论优点在实际系统中可能不成立,并介绍了未来研究的有吸引力的方向,这将有利于机器学习的科学理论和物理应用。
Nov, 2023
图谱域的非线性光谱滤波器 (NLSFs) 通过在图形的信号空间中操作来保证图功能性的转移,具有普适逼近性质,并且在节点和图分类基准测试中表现出优越性能。
Jun, 2024