非自由群作用的等变表示
本文针对深度学习的无监督学习,将群不变和群等变表示学习扩展到了该领域。我们提出了一种基于编码器 - 解码器框架的通用学习策略,其中潜在表示被分为不变项和等变群作用项。在利用预测适当的群作用来对齐输入和输出姿势以解决重建任务时,网络可以学习将数据编码和解码为群不变表示。我们导出依变编码器的必要条件,并针对旋转,平移和置换明确描述了我们的构造。我们在不同网络架构下使用不同数据类型进行各种实验,测试了我们方法的有效性和鲁棒性。
Feb, 2022
我们提出了一个通用的框架,用于将任意神经网络架构进行对称化,并使其关于给定群体具有等变性。我们构建在 Kim 等人(2023)和 Kaba 等人(2023)的对称化建议的基础上,并通过用一个直观地测量群轨道之间距离的优化来取代将神经特征转换为群表示的方法来改进它们。这种改变使我们的方法适用于比这两个提议更广泛的矩阵群,如 Lorentz 群 O (1, 3)。我们在 SO (2) 图像分类任务上实验证明了我们方法的竞争力,同时也展示了在 O (1, 3) 任务上的更广泛性。我们的实现将在此 https URL 上提供访问。
Nov, 2023
介绍一个新的概率模型,它针对紧致交换李群进行不变 - 等变和解开聚合表示数据。使用从物理学中借用的基本原理来定义解开概念。训练模型并表明学习到的不变表示对于分类非常有效。
Feb, 2014
本文提出了一种基于核方法的技术来推导局部群不变表示,通过在群上定义适当的概率分布来实现局部性,并使用核方法的强大框架来学习这些分布上的决策函数,从而生成局部不变随机特征映射。经实验证明,在三个真实数据集上,该方法优于基于核的竞争方法,并且在 Rotated-MNIST 上表现优于深度 CNN,并且与最近提出的群等变 CNN 表现相当。
Dec, 2016
在机器学习领域,最近,模型对于群作用的等变性已经成为重要的研究主题。本研究通过利用 Lie 群的 Lie 代数,提出了一种新颖的几乎等变性定义,并给出了一种将几乎等变性编码到模型中的实用方法。进一步,该研究还证明了等变性与等距性的关联以及几乎等变性与几乎等距性的关联,并在一定约束条件下,证明了几乎等变性流形嵌入函数与完全等变性嵌入函数之间的存在性。最后,通过在完全等变性和几乎等变性设置下的数据集上进行基准测试,证明了该方法的有效性。
Oct, 2023
该文利用群表示论和可线性转换的可视化表示概念,证明了任何这种表示都等价于基本不可约表示的组合,并表明在受限条件下,不可约表示是相互独立的。在部分可观察性下,需要对可转换线性的潜在表示执行推理。此想法在利用三维转动群 SO(3)的潜在表示的旋转 NORB 对象的模型中得到了演示。
Dec, 2014
使用李群和李代数的结构与几何学,提出了一个框架,用来在大多数情况下处理几何变换的不规则群,重点关注李群 GL+(n, R) 和 SL (n, R),以及它们作为仿射变换的表示。通过将 `较大的` 群分解为子群和子流形来实现不变积分和全局参数化。在这个框架下,我们展示了如何参数化卷积核来构建关于仿射变换等变的模型,并在标准的仿射不变基准分类任务上评估了我们模型的鲁棒性和越域泛化能力,结果表明我们的模型优于所有先前的等变模型以及所有胶囊网络提议。
Oct, 2023
本文从数学表示理论的角度研究了学习具有预先指定的变换不变性的字典的问题,并使用非阿贝尔傅里叶分析提出了算法有效实现了学习。通过将字典学习问题与物理域中的问题以及相关的计算问题联系起来,本文为我们提供了一种处理具有对称性的问题的新视角,使我们得以引入带限制的方法来进行降维,并为学习 SO(3)不变字典提供了一种有效的方法,本文提供了有关我们计算方法的保证。
May, 2023