文章分析了 2007-2022 年间自然语言处理领域合理化 (Rationalization) 技术的发展现状和存在的问题,提出了一种新的可解释人工智能技术领域 Rational AI (RAI) 并讨论未来的研究方向和挑战。
Jan, 2023
介绍了一个人本中心的框架 ClaimVer,通过生成丰富的注释来满足用户的信息和验证需求,减少认知负荷,清晰地验证每个声明,提供清晰简明的解释,增强了广泛应用于各种下游任务的适用性。
Mar, 2024
深度神经模型在自然语言处理中变得越来越复杂且难以解释,因此解释它们的必要性也越来越大。本文提出了一个正式框架来支持对解释的系统评估,并提供了适用于不同结构的解释的示例,重点是自动事实验证任务。
研究了如何设计一个可以帮助人类玩家改善棋类游戏表现的算法,该算法利用机器学习及透明度技术生成 AI 的内部任务模型解释,提供了自动判定和指导用户的决策方法。
Feb, 2020
本文针对自动事实检测的不足之处,提供了首个研究可利用可用的声明上下文生成自动化证明,并且演示了一项同时优化判断准确性预测和证明生成的多任务模型平均性能更好。
Apr, 2020
通过实验表明,利用 sample-based rationales 可提高机器学习系统的分类准确性,我们在此基础上通过 Explanations 对其解释时的表现也得出加强版的 Explanable AI 理论;特别是,我们发现在 CNN-based 文本分类中,利用 supervised attention 相比于 normal 无监督 attention 更优秀。
May, 2019
研究复杂推理任务的机器学习模型的问责和透明度方法,通过暴露潜在漏洞和解释模型推理过程来提高利益相关者的信任度和发现模型决策中的错误和不公平性。
Nov, 2022
介绍了 AI 合理化的方法,将自主系统行为的解释生成为人工行为的样式。使用神经机器翻译将自主智能体的内部状态 - 行为表示翻译成自然语言来描述合理化技术。通过 Frogger 游戏环境对该技术进行评估,训练一个自主游戏代理人,使其使用自然语言合理化其行动选择。结果显示,神经机器翻译能够准确生成描述代理行为的合理化方法,合理化比其他替代方法更能满足人类需要。
Feb, 2017
自动化生成证明(说明为何某主张被分类为真或假)的过程在抵制虚假信息方面起到重要作用,这篇论文针对无结构知识(如新闻文章)的摘要方法进行了实验证明,结果显示,通过基于主张信息的抽取步骤改善摘要性能可以从证明生成摘要中获益。
Aug, 2023
本文研究了可解释人工智能模型对用户行为和性能的影响,在一项对说明性活动识别系统的控制用户研究中发现,低真实性的解释与准确的解释和没有解释的系统相比,会显着降低用户的性能和协议。研究结果表明,精确而易理解的解释至关重要,而糟糕的解释有时比没有解释更糟。
May, 2020