关键词multiple choice learning
搜索结果 - 2
- AAAI多假设丢弃:多模态输出分布参数估计
通过使用多假设 dropout 和一种新颖的随机分胜负损失函数,本文提出了一个混合多输出函数 (MoM) 方法,该方法不仅估计均值而且估计假设的方差,并在监督学习和无监督学习问题上实验验证了其性能优越性。
- ICML自信的多选学习
本研究提出一种针对深度神经网络的新型集成学习方法,名为自信多选学习(CMCL),通过解决其过度自信的问题来提高模型的性能,CMCL 比独立集成方法在图像分类和前景 - 背景分割等任务中提高了显著的准确率。