决策焦点学习的强化损失函数
通过建立连续在线学习(COL)这种新的设置,连续轮次中在线损失函数的梯度会随着学习者的决策而连续变化,我们可以更完整地描述许多有趣的应用,特别地,证明了满足单调EPs(经济平衡问题)能够在COL中实现子线性的静态遗憾。 由此得出的启示是,我们提供了实现子线性动态遗憾的有效算法的条件,即使选择的损失在先验变化预算中没有适应性。 此外,我们还展示了一个从动态遗憾到静态遗憾和相关EP(经济平衡问题)收敛的COL之间的简化,从而允许我们分析许多现有算法的动态遗憾。
Feb, 2019
本文提出了基于噪声对比法的伪损失函数方法和解决缓存方案的方法,以优化组合优化问题的预测和优化方法中的训练时间和准确性的平衡。实验证明,该方法在计算成本的一小部分之内即可与现有技术匹配。
Nov, 2020
本文介绍了一种全新的决策化学习方法,通过学习任务特定的损失函数代替了传统的基于代理的优化方法,与先前的工作相比,该方法不需要手工制定基于任务的代理,性能更好且更易用。
Mar, 2022
本文提出了一种使用机器学习进行决策的方法—— Predict-then-Optimize。 在这个方法中,学习任务特定的损失函数是核心问题,实验结果表明我们的方法在四个领域中均取得了最好的结果,并且需要的样本数比过去的方法少一个数量级。
May, 2023
决策导向学习是上下文优化的一种有前景的发展,而我们提出了一个双重隐式层模型,用于训练预测模型以实现对不确定凸二次约束二次规划问题中健壮决策损失的训练。该模型是决策导向学习不确定凸QCQPs的有效正则化工具。
Dec, 2023
使用含噪标记数据训练决策树,研究能够导致健壮学习算法的损失函数。首先,我们在决策树学习领域提供了有关许多现有损失函数健壮性的新理论见解。其次,我们介绍了一种构建健壮损失函数的框架,称为分布损失。最后,我们的多个数据集和噪声设置上的实验证实了我们的理论洞察力和自适应负指数损失的有效性。
Dec, 2023
不确定性优化参数的处理是一个重要且长期存在的挑战,本研究致力于通过构建决策导向的预测模型来减少决策对不确定参数的敏感性,并将其建模为一种非凸二次优化问题以实现可行性。
Dec, 2023
我们提出了一种新颖的决策感知替代损失函数家族,称为扰动梯度(PG)损失函数,用于预测-优化框架。这些损失函数直接近似下游决策损失,并可以使用现成的基于梯度的方法进行优化。重要的是,与现有的替代损失函数不同,我们的PG损失函数的近似误差随着样本数量的增加而消失。这意味着优化我们的替代损失函数在错配设置中渐近地产生了最佳策略,甚至在错配的设置下也是如此。这是第一个在错配设置中获得这样的结果,我们提供了数值证据,证实当基础模型发生错配且噪声不是中心对称时,我们的PG损失函数在实质上优于现有的提案。鉴于错配在实践中经常发生,尤其是当我们可能更喜欢一个更简单、更可解释的模型时,PG损失函数提供了一种新颖的、在理论上有理据的、可计算的、决策感知学习的方法。
Feb, 2024
考虑了预测-优化模式的决策制定方法,通过在历史数据上训练监督学习模型,再利用该模型在新环境中进行未来的二进制决策以最大化预测奖励,提出了一种新的损失函数Empirical Soft Regret (ESR)来显著改善模型训练中的奖励,该方法在新闻推荐和个性化医疗决策问题上明显优于现有算法。
Jun, 2024