Apr, 2025
即使解释也无法帮助信任[这个]根本偏见的系统:预测警务案例研究
"Even explanations will not help in trusting [this] fundamentally biased
system": A Predictive Policing Case-Study
TL;DR本研究应对高风险领域中用户对人工智能系统信任不足的问题,探讨不同类型解释(文本、视觉和混合)对用户信任的影响。研究发现,虽然混合形式的解释增加了专家用户的主观信任,但未能改善决策质量,也未能建立适当的信任。因此,本文强调需要重新评估在可疑系统中使用解释的有效性,并提出政策建议,以促进高风险领域人工智能系统的适当信任。