- 基于模拟策略的非珂环境下评估和学习记录型匪徒反馈反馈数据:通过替代策略减少误差
本文介绍了一种新的名为 “最大似然反向倾向评分(MLIPS)” 的方法,用于从批量日志二手反馈中学习。与现有方法相比,MLIPS 不仅具有渐近无偏性,而且具有更小的均方根误差,表现出更好的性能。
- 伪行列式微分
定义了一个关于厄米矩阵的伪行列式的导数类,并给出了其经典梯度恒等式的例子,包括在退化的多元高斯分布中秩缺失协方差矩阵的最大似然问题。
- 使用策略学习来提高端到端的语音识别
本文介绍了如何在最大似然和策略梯度训练中联合训练来减少最大似然和语音识别性能指标之间的不匹配,并通过实验验证了其效果。
- 高维广义线性模型中的鲁棒估计
该研究介绍了一种基于变换的确定性鲁棒初始估计方法及其对应的迭代加权最小二乘算法,用于解决存在异常值时基于最大似然估计的广义线性模型中初始估计不准确的问题。
- 最大似然和基于 GAN 的训练 Real NVPs 的比较
本文通过最大似然法和 Wasserstein GAN 训练了一个生成器,通过相关样本、概率密度和 Wasserstein 距离的比较表明,独立的评论家在验证集和生成分布之间估算 Wasserstein 距离可以帮助检测过度拟合。最后,本文采 - 一种基于最大似然方法的统一分布性能优化估计
利用插值最大似然估计(PML),可以很好地估计支持大小、覆盖区域、熵和接近均匀分布等数据科学中的对称性属性。
- NIPS神经结构预测的奖励最大似然
本文提出了一种简单而高效的方法,在最大似然框架中实现任务奖励的直接优化,将其融入到结构化输出预测的问题中,并尝试使用奖励最大化条件分布来优化模型。实验结果表明,该方法在语音识别和机器翻译任务上实现了显著的性能提升。
- 如何(不)训练生成模型:定时采样,似然度,对手
本篇论文针对基于深度学习的文本和图像生成模型的目标函数进行了探讨,提出了替代 maximum likelihood 训练目标函数的方法,引入了一种广义的对抗训练方法。
- 学习分析合成在 RGB-D 图像中的 6D 姿态估计
该研究提出了一种基于卷积神经网络(CNN)的后验概率密度的学习比较方法,可以更准确地进行物体的 6D 位姿估计。经过实验证明,相比于现有技术,在不同场景下且包括不同形状和外观的 11 个物体的多个数据集中,具有显著的性能提升。
- 使用数据复制 ABC 进行近似的最大似然估计
提出了一个最大似然方法,使用近似贝叶斯计算(ABC)方法的一般类别的模型。精度依赖于使用小阈值进行比较。所提出的方法显示了如何使用大的阈值,同时增加数据克隆的数量以实现近似最大似然估计.
- Poisson 矩阵恢复和完成
本文中,我们将低秩矩阵恢复和矩阵补全的理论扩展到矩阵的线性组合或子集的 Poisson 观察结果的情况下,并通过具有矩阵 $M$ 上的合适约束条件的最大似然方法建立了矩阵恢复的理论上下界。同时,我们还开发了一组高效迭代算法,并在合成例子和实 - 使用 lme4 拟合线性混合效应模型
使用 R 语言的 lme4 包中的 lmer 函数可以使用最大似然或受限制的最大似然估计线性混合效应模型中的参数。该论文描述了模型的结构,评估剖面偏差或 REML 准则的步骤,以及表示这种模型的类或类型的结构。
- NIPSHMM 的维特比训练和最大似然估计的比较分析
本文通过基于生成函数的分析框架,探讨了 Viterbi Training 算法对隐马尔可夫模型参数估计的优劣,并发现该算法在自动奥卡姆剃刀原理下,能够更快速地收敛,实现更为简洁的模型学习。
- 高斯过程得分函数的随机逼近
探讨无偏随机逼近的统计特性,通过模拟数据集得到有效计算、可比最大似然估计的技术,并通过 $2^n$ 阶乘设计元素改进算法得到更好的结果
- 高斯过程在模型误差条件下的超参数交叉验证和最大似然估计
研究估计协方差超参数的最大似然(ML)和交叉验证(CV)方法, 结果发现 CV 方法在协方差函数被错误指定时表现更好,但当模型被很好指定时,ML 更优。进一步将单参数情况扩展到了估计具有协方差函数的超参数的情况。
- 最大似然界树宽马尔可夫网络
通过将 Chow 和 Liu 在最大似然马尔科夫树方面的工作推广到更复杂的马尔科夫网络,我们研究了高度限制下最大似然马尔科夫网络学习问题,结果表明其复杂度是 NP 难问题。
- 选择备选方案的最大似然方法
本文探讨了在存在噪声评估的情况下,选择替代方案子集的问题,并证明在噪声水平足够高时,直观方法提供了最优解。我们扩展了有关选择单一替代方案以及通过强度识别隐藏排名的经典结果。大量实验表明,我们的方法在实际环境中表现良好。
- 得分匹配的解释和推广
本文研究了评分匹配在解决高维密度模型中不可处理的分区函数时所用到的两个问题:首先,提供了最大似然和评分匹配之间的正式联系,其分析表明评分匹配可以找到更具有噪音训练数据鲁棒性的模型参数;其次,本文还发展了评分匹配的一个推广,并在此基础上进一步 - GLMMLasso:一种使用 L1 惩罚的高维广义线性混合模型算法
我们提出了一个 L1 惩罚算法,用于拟合高维广义线性混合模型,并建议使用最大似然重新拟合模型。在模拟和实际数据示例中,我们演示了该算法的性能,并在 R 包 glmmixedlasso 中实现了该算法。
- 概率条件随机场的损失敏感训练
讨论了训练概率条件随机场中最大似然以外的代价函数,该方法以对比排序为基准的实验验证了将代价函数信息纳入到概率训练中的重要性,其中代价启发 KL 目标函数的表现最优。