Nov, 2023

为了校准和一致的延迟学习而捍卫 Softmax 参数化

TL;DR通过学习让机器学习分类器在更准确的专家存在时推迟决策,可以提高安全性和性能。本研究证明了以先前文献中代理损失的对称性为原因,而不是 softmax 本身,导致了未校准和无界估计的问题,并提出了一种新颖的统计一致的基于非对称 softmax 的替代损失函数,该方法可以产生有效的估计结果。我们进一步分析了我们方法的非渐近特性,并在基准数据集上验证了其性能和校准性。