- 李群动量优化器的定量收敛性
通过变分优化和动量微化,可以构建优化 Lie 群上定义的函数的显式的基于动量的动力学方法。本文研究了两种离散化方法:Lie Heavy-Ball 和 Lie NAG-SC,分别提供了 L 平滑性和局部强凸性的显式收敛速度。与现有的一般流形加 - 基于李群的动力 Langevin Monte Carlo 的收敛性
基于动量的动力学方法的优化与采样机制的研究,其中涉及 Lie 群、变分优化、动量动力学与采样动力学,以及基于动量的动力学方法在曲面上的收敛性研究。
- ICLR一个针对 Riemannian Batch Normalization 的 Lie 群方法
本文在李群上建立了一个统一的黎曼均值归一化 (RBN) 技术框架,理论上保证了控制黎曼均值和方差;在实验中,我们针对对称正定流形展示了该方法的有效性,应用于雷达识别、人类动作识别和脑电图分类。
- MM神经网络的数学(研究生课程讲义)
这篇研究论文是一门名为《神经网络导论》的课程的讲义,旨在向研究生数学学生介绍神经网络,并使他们对进一步研究神经网络感兴趣。该课程分为两部分:第一部分是关于深度学习的总体介绍,以形式化数学的方式引入该领域;第二部分介绍李群和齐次空间的理论,并 - 旋转平移的李群上的最优输运
在这篇论文中,我们针对 SE2 提出了一种计算框架,用于李群中的最优输运,并报告了在图像重心、平面方向场插值和 SE2 上的 Wasserstein 梯度流方面的宝贵进展。
- 通过神经 ODE 在李群上对 SE (3) 进行最优潜力塑形
基于有限维李群的动态系统优化的新方法,将动态系统重新表述为所谓的神经常微分方程 (neural ODEs),并在李群上制定优化问题,提出了一种梯度下降优化算法来解决数值优化问题。
- 等变神经网络的李群分解
使用李群和李代数的结构与几何学,提出了一个框架,用来在大多数情况下处理几何变换的不规则群,重点关注李群 GL+(n, R) 和 SL (n, R),以及它们作为仿射变换的表示。通过将 `较大的` 群分解为子群和子流形来实现不变积分和全局参数 - 变换编码:等变表示的简单目标
通过简单的目标函数实现深度表示学习的同变深度嵌入,使用不同 Lie 群的变换编码目标实现表示的分解和解缠缠绕,并应用于各种下游任务,包括强化学习。
- ICCVGeomNet: 一种基于对称正定矩阵空间和 Cholesky 空间上的 Riemannian 几何的神经网络,用于 3D 骨架交互识别
提出了一种基于高斯分布和李群、黎曼对称空间的新方法,可用于表示和分类二人互动的三维骨架序列,并在三个三维人体活动理解基准测试中取得了有竞争力的结果。
- 基于接触辅助的不变扩展卡尔曼滤波法用于机器人状态估计
该研究开发了利用 Lie 群和不变观测器设计技术的接触辅助不变扩展卡尔曼滤波器(InEKF),该滤波器结合了接触惯性动力学和正向运动学校正,可估计姿态和速度以及所有当前接触点。研究表明,误差动力学遵循对数线性自治微分方程,从而提高了收敛性能 - 李群上的重参数化分布
本文提出了一种通用的框架,以在任意 Lie 群上创建可重参数化密度,并提供了详细的从业者指南,展示了如何在面向 3D 旋转的定向群 $SO (3)$ 上使用归一化流创建复杂的和多模态的分布,其应用于具有离散和连续对称性的对象的姿态估计中展示 - ICML同胚变分自编码的探索
本文研究了流形值潜变量的使用,特别是连续可微的对称群(李群)的情况,展示了如何通过将再参数化技巧扩展到紧连李群来构造带有李群潜变量的变分自编码器,并通过实验展示了匹配潜在数据流形拓扑结构的流形值潜变量对于保留拓扑结构和学习良好的潜空间至关重 - ICLRLie-Access 神经图灵机
本文介绍了 Lie-access 记忆模型,通过使用基于 Lie 群的控制器在键空间中移动头,实现相对索引,并利用 Lie 群提供的逆运算和恒等算子来保持可微分性,为算法性能提供强劲的支持。
- 李群上的形状分析及在计算机动画中的应用
本文介绍了一种基于 Lie 群的曲线形状分析框架,用于生成非循环角色动画的循环逼近与已有动画间的插值,以解决计算机动画问题。
- 学习李群变换的非监督算法
该论文提出了一种方法,可以将 Lie 群适配到高维数据集上,通过一个特定的模糊算子使推理可以逃脱局部最小值,鼓励发现稀疏的、最小距离的状态之间的变换,同时演示了如何在自然图像补丁和自然视频序列上进行变换学习和推理。
- 单模 Lie 群上的信息论不等式
这篇论文将经典信息论中的不等式(如 de Bruijn、Fisher 和 Kullback)从欧几里得空间中的概率论推广到不可模等 Lie 群领域,并将其应用于图像重建、移动机器人信息收集等领域,同时推导出类似于经典信息论的几个不等式。