Feb, 2024

$\alpha$- 散度损失函数用于神经密度比估计

TL;DR最近,神经网络在机器学习中的基础技术密度比估计(DRE)中取得了最先进的结果。然而,现有方法由于 DRE 的损失函数引起了优化问题:KL 散度具有大样本要求,训练损失梯度消失,以及损失函数的偏向梯度。因此,本文提出了一种提供简洁实现和稳定优化的 α- 散度损失函数(α-Div)。此外,还提出了对所提出的损失函数的技术验证。通过实验证明了所提出的损失函数的稳定性,并研究了 DRE 任务的估计精度。此外,本研究提出了使用所提出的损失函数进行 DRE 的样本要求,以 $L_1$ 误差的上界将高维 DRE 任务视为常见问题的复杂度。