Mar, 2024

忠诚与可信性是否相冲突?在自然语言处理任务中的可解释人工智能的经验研究

TL;DR通过对情感分析、意图检测和主题标记等三个自然语言处理任务中选定的易解释算法与专家解释方法的综合定量比较,我们的研究表明,传统的基于扰动的方法 Shapley value 和 LIME 可以同时实现更高的准确度和用户可访问性,与模型的推理过程、领域专家一致的解释方式。这一发现提示我们在优化解释算法时应当以双重目标为导向,以实现准确度和用户可理解性的双重提高。