ICMLFeb, 2021

不要仅仅因为过度参数化而指责过度自信:二元分类校准的理论分析

TL;DR本文通过理论证明和实验证明,在可实现的二元分类问题下,当数据由逻辑模型生成且样本量远大于参数个数时,对数回归具有固有的过度自信及其原因。作者还证明,存在其它激活函数和合适的损失函数,使得学习的分类器在某些概率值附近表现不足。