Jan, 2023

选择性解释:利用人类输入对可解释人工智能进行对齐

TL;DR本文提出了一种基于人类交流行为启发的可选择性解释框架,通过选择性地展示大量模型原因的子集,根据受众的偏好来尝试解决解释型AI算法在如何生成和消耗解释方面存在重大差距的问题,并通过决策支持任务和实验研究证明了其减少依赖AI和提高决策结果和主观感知的潜力。