Oct, 2024

可解释人工智能的有效性研究

TL;DR本研究解决了选择适当的可解释人工智能(XAI)方法的问题,以满足法律、商业和伦理要求。通过设计代理任务来评估用户执行成功的能力,我们发现不同的XAI方法在生成信任和怀疑方面存在差异,并影响人类决策的有效性。这项研究的结果强调了使用基于目标的用户中心研究来测量XAI性能的重要性。