Oct, 2024

面向用户的人工智能可解释性评估:一项全面的实证研究

TL;DR本研究聚焦于以人为中心的人工智能,解决了当前可解释人工智能(XAI)算法在用户理解和互动方面的不足。通过多学科的方法,我们对39名参与者进行了实证研究,揭示了现有XAI方法的局限性,并强调了设计新原则和评估技术的必要性,以满足不同AI利益相关者的信息需求。研究结果有助于推动HCAI研究的对话和机会。