可解释的人工智能模型下的自然语言交互
介绍当前自然语言处理中可解释AI的现状和对主要解释的分类,探究生成和可视化解释的各种方式和操作,详细介绍了为NLP模型预测生成解释的可用操作和可解释性技术,并提出当前领域研究存在的差距和未来方向。
Oct, 2020
INTERACTION 是一个生成性 XAI 框架,提供两个步骤的术语解释生成方法,具有 better performance 和多样性。
Sep, 2022
本文介绍了如何将可解释人工智能(XAI)应用于对话代理中,通过使用自然语言理解和生成组件来理解用户的信息需求并提供相应的解释。作者通过综合调查文献,提出了一份全面的可解释人工智能问题列表及相应的解释方法。
Sep, 2022
通过实验展示了ConvXAI,一个将多种XAI类型整合到一个通用对话接口上,利用实际用户需求来提高实用性,在人们感知、写作和生产力方面提高了实用性。
May, 2023
本文提出了一个框架来统一解释人工智能(XAI)领域的挑战。尽管XAI方法可以为机器学习模型提供有用的输出,但研究人员和决策者需要注意这些方法的概念和技术限制,这些限制通常导致这些方法本身变成黑匣子。作者使用图像、文本和图形数据,研究了涉及突出显示、关注和图形解释器的三种XAI研究途径。尽管这些案例的背景和时间跨度各不相同,但是同样的持续困难仍然出现,这凸显了在此领域要应对XAI方法和应用任务之间兼容性挑战的概念突破的必要性。
Jul, 2023
通过使用自定义的大型语言模型,本研究提出了一个名为“x-[plAIn]”的新方法,旨在将可解释人工智能(XAI)更容易地应用于更广泛的受众群体中。该模型能够根据不同受众群体的知识水平和兴趣,生成清晰、简洁的XAI方法概述,为商业专业人士和学术界人士提供定制化的易于理解的解释,通过提供适应性解释,促进最终用户的决策过程,从而加强了XAI的可访问性,弥合了复杂的AI技术和实际应用之间的鸿沟。本研究表明了大型语言模型在使先进的AI概念对各种用户更易于理解方面的前景。
Jan, 2024
通过用户互动,我们提出了一种基于互动的可解释的AI方法,通过修改图像来观察分类结果的变化,使用户能够辨别影响模型决策过程的关键特征,从而将他们的心智模型与模型逻辑对齐。该方法通过用户参与和理解为可解释的AI系统提供了更直观和易于访问的方式。
Apr, 2024
本研究解决了对话式可解释人工智能(XAI)系统中用户理解能力评估的不足。通过在对话框架内进行控制实验,评测用户对模型的理解水平,该研究展示了互动过程中用户理解能力的量化变化。研究结果有助于提升XAI系统的有效性,优化用户体验。
Aug, 2024
本研究解决了可解释人工智能(XAI)领域中对话式方法的用户理解评估不足的问题。通过在对话框架中进行控制实验,研究者测量用户对模型的理解程度,揭示了互动前后理解的变化。研究结果显示,基于对话的XAI系统在提高用户理解方面可能具有更高的有效性。
Aug, 2024
本研究针对传统可解释人工智能(XAI)方法在提供解释方面存在的单一抽象层次局限,提出了符号化可解释人工智能框架。该框架通过输入特征间的逻辑关系表达符号化查询,揭示模型预测背后的抽象推理过程。研究结果展示了该框架在自然语言处理、视觉和量子化学等领域的有效性,有助于提升用户对模型决策过程的理解。
Aug, 2024