一种伪似然方法的修正
研究了在条件泊松抽样方案下对数线性模型中的最大似然估计, 推导了模型参数的最大似然估计器存在的必要和充分条件,探究了自然和均值参数在不存在 MLE 情况下的可估性。此外,提出了拓展最大似然估计算法,并利用对数线性模型的几何性质,为对数线性模型分析的现有算法进行改进和修正。
Apr, 2011
本研究证明在逻辑回归模型中,当样本量和自变量个数的比例变大时,MLE 的偏差和方差均远大于经典预测所得,常用的 LRT 也未能满足卡方分布,因此现有的软件包所得出的推论是不可靠的。
Mar, 2018
基于数据驱动方法的概率建模用于电力系统运行和规划过程,需要充足的大型数据集。本文提出一种自适应的核密度估计模型,通过分配可学习的权重给核心实现了该模型的性能改进,同时使用修正的期望最大化算法加快优化速度,并通过和高斯混合模型的比较,表明所提出的模型具有良好的性能。
Oct, 2023
本文提出了一种用于估计对数凹密度函数的最大似然估计方法,该方法利用了计算几何和 Shor 的 r 算法,具有自动化和无需参数选择等优点,并证明了其表现优于基于核的方法,可用于有限混合物拟合。
Apr, 2008
该研究调查了在线情境决策问题的离线公式化,其目标是利用在行为策略下收集的过往互动来评估、选择和学习新的、潜在更好性能的策略。通过采用悲观主义的原则构建对策略最坏情况性能的上限界,我们超越了点估计器,引入了对一类广泛的重要性加权风险估计器的新颖、完全经验的集中界。这些界足够一般,覆盖了大多数现有的估计器,并为新估计器的开发铺平了道路。特别地,在类别中寻求最紧密的界的追求激发了一种新的估计器(LS),该估计器对大的重要性权重进行对数平滑。LS 的界证明比所有竞争者都紧,自然而然地导致改进的策略选择和学习策略。广泛的策略评估、选择和学习实验证明了 LS 的多样性和有利性能。
May, 2024
本文探讨了使用零射击方式相对于微调方法的优势,并通过实验结果表明其在通用常识推理等二选一任务上表现出色。并且,作者认为此种方法的健壮性应从表征组合性的角度进行解释。
Jan, 2022
针对独立同分布样本的密度的对数凹最大似然估计器的理论性质进行了阐述,对真实的基础密度为对数凹和误差模型两种情况进行了研究,证明了对于对数凹密度序列,分布收敛意味着强类型的收敛,而且在某些指数加权的总变异规范下甚至意味着 Hellinger 距离的收敛。在主要结果中,证明了所有对数凹密度中最小化 Kullback-Leibler 分歧的对数凹密度的存在性和唯一性,并且还展示了对于这些指数加权的总变异规范收敛于这个最小化器的对数凹最大似然估计器。在正确规定模型的情况下,这证明了估计器的一种强的一致性;在误设模型的情况下,它表明估计器收敛于最接近真实密度的 Kullback-Leibler 意义下的对数凹密度。
Aug, 2009
现代机器学习系统的一个关键挑战是实现越界通用化(OOD generalization)- 广义到与源数据分布不同的目标数据。本文证明了在针对协变量转移的规范设置下,令人惊讶的是,纯使用源数据(无需任何修改)的经典最大似然估计(MLE)达到了最小最大优化。我们的结果适用于非常丰富的参数模型,并不需要对密度比率施加任何有界条件。我们通过线性回归、逻辑回归和相位恢复的三个具体示例来说明我们框架的广泛适用性。此外,本文通过证明在误规设定下,MLE 不再是最优选择,而在某些情景下,最大加权似然估计(MWLE)成为最小最大优化。
Nov, 2023
本文介绍了一种新的名为 “最大似然反向倾向评分(MLIPS)” 的方法,用于从批量日志二手反馈中学习。与现有方法相比,MLIPS 不仅具有渐近无偏性,而且具有更小的均方根误差,表现出更好的性能。
Aug, 2018
研究了在观测了 Bernoulli 试验结果的基础上,针对具有未知分布的参数,利用最大似然估计方法准确地估计总体分布,提出了一种在样本容量不大于总体个体个数的情况下,MLE 能达到统计最优和高效计算的方法。
Feb, 2019