面对表演性问题的模型再训练的局限性
文章探讨了预测可能影响其预测目标的可执行性预测,并提出了一种风险最小化框架,引入了统计学、博弈论和因果性的概念,并给出了最小化损失的稳定点的必要和充分条件。在全面性上,表现性预测严格包含战略分类设置,并给出了克服战略反馈效应的重新培训的首个充分条件。
Feb, 2020
该研究论文介绍了一种新的算法PerfGD,通过捕捉模型对数据分布的影响来优化模型参数,为解决通过部署机器学习模型改变数据分布引起的性能问题提供了新的解决方案。
Feb, 2021
本文探讨了 performative prediction 的问题,基于特定的损失函数和模型诱导的分布位移性质进行优化,从而实现风险凸优化,并且比通用导数优化方法具有更好的样本效率。
Feb, 2021
本文研究了在performative情境下找到接近最优点的模型的问题,该算法在找到最优解的同时还能保证低的后悔值,并通过对分布性的探索来构建风险置信度,从而建立了一种利用bandits算法来实现performative反馈下的后悔最小化的概念方法。
Feb, 2022
本文研究了在目标性预测中使用可能被错误规定的模型的方法,通过使用名为“插件表现优化”的通用协议,证明了其过度风险的界限,结果表明,即使模型被错误规定,模型确实可以帮助学习实现表现。
May, 2023
本文提出了一种新的框架,用于分析实际系统中分布转移的动态,该框架捕捉算法学习和它们所部署的分布之间的反馈循环,并针对两种常见的机器学习情景,通过偏微分方程模型证明了再训练过程的渐近收敛性,同时通过实证研究表明,该方法能够很好地捕捉自然数据中的分布变化。
Jul, 2023
优化机器学习模型重新训练的成本,通过考虑数据、模型和预测查询等多种因素,提出了一种成本感知的重新训练算法Cara,该算法能适应不同的数据变化并在总成本更低的情况下实现比漂移检测基线更好的准确性。
Oct, 2023
当强化学习代理在实践中部署时,它们可能会对环境产生影响并改变其动态。本研究提出了一个框架,该框架中当前环境的演变依赖于部署策略及其先前的动力学,用以分析学习算法在这些模型中的性能。通过在我们的设置中结合两个 performative prediction 文献中的算法并提出一种名为 MDRR 的新算法,我们提供了这些算法收敛的条件,并使用三个度量指标比较它们。与以往方法不同,MDRR 在训练中结合了多次部署的样本,使其特别适用于环境的响应强烈依赖于其先前的动力学的场景。在基于仿真的测试平台上实验比较这些算法时,结果显示 MDRR 收敛速度显著快于以往方法。
Feb, 2024
通过使用混合整数优化算法,在重新训练机器学习模型时考虑到不同数据批次更新的稳定性,通过使用自定义的距离度量指标来实现保持一致的分析洞察力,并在一个真实的生产案例中展示出比贪婪训练模型更强的稳定性。重要的分析洞察力在重新训练迭代中保持一致。
Mar, 2024