Sep, 2020

度量效用、赢得信任:XAI 研究员的实用建议

TL;DR机器学习模型解释学(即可解释性 AI)的研究与深度人工神经网络同步呈指数增长,但传统的信任和解释却太狭隘,导致研究社区被误导。该研究提出了一种实用的解决方案,建议研究人员关注机器学习解释的实用性而非信任,提出五种广泛的用例,并为每种情况描述可依靠客观经验测量和可证伪假设的伪实验。该实验严谨的处理方法将对 XAI 领域的科学知识的进一步贡献是必要的。