Dec, 2022

通过逻辑斯蒂回归校正避免伪相关性

TL;DR本文提出了一种简单而有效的方法 —— 修正逻辑损失,旨在解决当大多数训练数据中存在潜在的虚假相关性时,基于经验风险最小化 (ERM) 训练的机器学习模型在推理时出现性能下降的问题,将最小化修正逻辑损失等同于最大化组平衡准确性,可以缓解虚假相关性的负面影响。实验证明,该方法在多个基准测试平台上的表现优异,平均提高了 5.5%的绝对精度,无需访问虚假属性标签。