Fanoos XAI 系统中基于学习的自动操作员选择方法
本文提出了一种解释型人工智能系统(XAI),该系统提供对其预测的解释,并使用预测 And-Or 图(AOG)模型识别和定位输入数据中感兴趣的概念,并使用 XAI 模型在自然语言中为用户提供解释。通过对 YouTube Action 数据集的研究,我们从用户的问题和 XAI 答案之间确定了几种相关性。
Mar, 2019
通过利用可解释性人工智能系统在专家的指导下训练新手可以替代传统学习系统,从而传授隐性知识并调节学习者的认知风格,为人工智能开发者提供未来定制 (T) XAI-based 学习系统的设计方案。
Jun, 2024
该论文描述了一个整合 AutoML、XAI 和合成数据生成的系统的设计,从而为用户提供了优良的用户体验设计,使他们能够利用机器学习的力量而抽象其复杂性并提供高可用性。论文中介绍了两种新型分类器,逻辑回归森林和支持向量树,用于提高模型性能,并在糖尿病数据集上实现了 96% 的准确率和调查数据集上的 93% 准确率。此外,论文还介绍了基于模型的局部解释器 MEDLEY,并将其与 LIME、Greedy 和 Parzen 进行了评估。论文还介绍了基于 LLM 的合成数据生成、基于库的数据生成和通过 GAN 增强原始数据集的方法。在合成数据方面的研究结果表明,通过 GAN 增强原始数据集是生成可靠合成数据的最佳方法,这一点通过 KS 测试、标准差和特征重要性得到了证明。作者还发现 GAN 在定量数据集上表现最好。
Dec, 2023
本研究使用 SML 和可解释 AI 方法对联合行动中的人类决策进行建模、预测和理解。结果表明,模型能够准确地预测专家和新手在任务中的目标选择决策,并能够在演员意识到决策意图之前做出预测。通过可解释 AI 方法发现,专家更受同伴状态的影响,而新手则更受其他信息的影响。
Jun, 2022
本文研究利用可解释人工智能 (XAI) 框架 (OAK4XAI) 中的知识图谱模型和本体设计来解决数字农业数据挖掘中由于背景知识不足而导致的解释困难问题,并且建立了适用于农业和计算领域的农业计算本体 (AgriComO) 以解释挖掘出的知识。
Sep, 2022
该论文提出了一个使用可解释人工智能技术方法来自动提升预训练深度学习分类器性能的通用框架,避免了重新训练复杂模型所带来的计算开销,通过两种不同的学习策略,自动编码器和编码器 - 解码器,来实现这一架构。
Mar, 2024
我们介绍了一个使用可解释的人工智能(XAI)的智能系统(CL-XAI)用于认知学习的研究,其两个主要目标是探索人类学习者如何理解使用 XAI 工具的人工智能模型的内部机制,并通过人类反馈评估这些工具的有效性。使用 CL-XAI 在一个基于游戏的虚拟案例中说明了其应用,学习者通过解决组合问题来增强解决问题的能力和加深对复杂概念的理解,突出了认知学习和协同学习中潜在的转变性进展。
Dec, 2023
通过用户调查和分类行动性的术语,我们开发了一种基于通用模板的自然语言生成方法,以改善反事实解释的理解和可操作性,通过解决现有方法的局限性,我们的方法在用户评估中得到更好的反应和结果。
Oct, 2023
本论文以自动驾驶汽车为研究对象,研究了四种常见的可解释人工智能方法,即决策树、文本、程序和图示。研究表明,参与者倾向于使用语言解释,但通过决策树解释更能客观地理解汽车的决策过程,并且结果显示,计算机科学经验和观察汽车成功或失败的情况可以影响解释的感知和有用性,因此本研究提出,设计 XAI 系统必须考虑用户的特定需求和情境因素。
Jan, 2023