Feb, 2021
不要仅仅因为过度参数化而指责过度自信:二元分类校准的理论分析
Don't Just Blame Over-parametrization for Over-confidence: Theoretical
Analysis of Calibration in Binary Classification
TL;DR本文通过理论证明和实验证明,在可实现的二元分类问题下,当数据由逻辑模型生成且样本量远大于参数个数时,对数回归具有固有的过度自信及其原因。作者还证明,存在其它激活函数和合适的损失函数,使得学习的分类器在某些概率值附近表现不足。