通过组合优化学习非标准化统计模型
我们提出了一种新方法,通过在密度估计问题中将噪声样本的生成与观察到的数据联系起来,旨在比噪声对比估计更好地估计未规范化模型的参数,并在深度学习中证明了其适用性。
Jun, 2018
本文考虑了基于 NCE 的条件模型估计,通过分析两种条件模型变体:一种基于分类目标,另一种基于排序目标,证明了基于排序的 NCE 变体在较弱的假设下提供了一致的参数估计,同时分析了两种方法的统计效率,并在合成数据和语言建模实验中展示了两种方法的效果和权衡。
Sep, 2018
通过将噪声对比估计(NCE)方法与传统最大似然估计(ML)方法结合,以及探索 NCE 与条件重要性采样(RNCE)和对比散度(CNCE)之间的关联,本研究实现了 NCE 方法的扩展和改进。
Feb, 2024
本文提出了一种使用正确评分规则理论的噪声对比估计(NCE)方法家族,适用于潜变量模型;这个方法家族可以通过类似变分贝叶斯的方式从数据样本和噪声样本中提取并利用信息,并被称为全变分噪声对比估计时损失函数,其中,变分自编码器是其中的一种,也可以用于使用适当的分类损失将实际数据与合成样本区分开来;此外,我们讨论了全变分 NCE 目标的其他实例,并指出它们在实证行为上的差异。
Apr, 2023
该研究探讨语言概率模型参数估计中遇到的计算问题及其解决方案,针对噪声对比估计与负采样方法的异同进行分析,发现 NCE 是一种渐近无偏的通用参数估计技术,而负采样则适用于学习词表示,但不适用于通用估计器。
Oct, 2014
本文中介绍了一种新的图像对比学习方法,该方法采用有条件的负采样策略来优化互信息估计,与传统的噪声对比估计相比,该方法在多个标准数据集上都获得了 2-5% 的准确度提升,并且在物体检测、实例分割、关键点检测等下游任务中也获得了更好的性能表现。
Oct, 2020
本研究对语言建模中的自归一化进行了全面的研究,通过理论分析噪声对比估计 (NCE) 语言模型的自归一化特性,与使用显式正则化来自归一化的 softmax-based 方法进行了经验比较,并提出了一种具有吸引力的混合模型。最后,发现自归一化和困惑度之间存在负相关,这一规律为未来改善自归一化算法提供了一定的帮助。
Jun, 2018
本文探讨了两种基于二进制分类的生成模型估计标准的相似性和差异性,证明了一种动态生成器网络的 NCE 算法等价于最大似然估计;同时也指出了 GAN 算法存在的问题和未来的研究方向。
Dec, 2014