May, 2024

使用Wasserstein-邻近正规化的$α$-散度学习重尾分布

TL;DR我们提出了Wasserstein proximals of $\alpha$-divergences作为学习重尾分布的合适目标函数,首先给出了数据维度、$\alpha$和数据分布衰减率之间的足够关系以及某些情况下的必要关系,使得Wasserstein- proximal-regularized divergence是有限的,并且在某些尾部条件下提供了Wasserstein-1 proximal divergences的有限样本收敛速度,数值实验表明了学习重尾分布的稳定性,即使是没有第一或第二时刻的分布,也可以使用适当的生成模型(如GANs和与我们提出的Wasserstein proximal-regularized $\alpha$-divergences相关的基于流的模型)来学习目标分布,启发式地,$\alpha$-divergences处理重尾,Wasserstein proximals在分布之间提供非绝对连续性,并在深入尾部学习目标分布时控制流算法的速度。