May, 2020

误信:测量机器学习对人类决策的干扰

TL;DR研究人员探究了人们在处理两项困难任务时,对机器学习(ML)建议的信任程度;他们发现,即使人们了解这些任务,并给出了表明该系统不自信的信息,但在执行大部分时间正确的任务时,人们也会相信错误的 ML 建议,并且提供了四种不同类型的系统信息可增加人们对建议的信任,并且数学和逻辑技能对于使用 ML 建议的决策者来说可能与 ML 一样重要。