关键词explainable artificial intelligence (xai)
搜索结果 - 11
- nn2poly:将神经网络转换为可解释的多项式的 R 包
通过多项式表示预测与原网络等效的方式,解释和解读前馈神经网络的 NN2Poly 方法提供了在 R 中的实现。通过获得的多项式系数,可以表示每个变量及其对输出的相互作用的效果和重要性。
- AI 决策应如何解释?从欧洲法律的角度来看的解释要求
该研究探讨了法律与可解释人工智能(XAI)之间的关系,通过对欧洲法律、AI 法案以及 XAI 方法的要求等方面的研究,得出法律对不同的 XAI 属性有不同的要求,并指出现有技术水平尚不能充分满足这些要求,尤其是在 XAI 方法的正确性和置信 - 通过零信任架构增强无人机安全:先进的深度学习和可解释的人工智能分析
该研究强调了在无人机领域中实施零信任架构(ZTA)以增强安全性的必要性,通过使用深度学习框架中的射频(RF)信号进行无人机的精确识别,结合可解释的人工智能工具(如 SHAP 和 LIME),确保无人机的分类可验证和可理解,从而提高了安全性。
- 基于可解释人工智能的老年人与电子健康界面交互研究
研究提出了一个综合的混合方法框架,采用不同样本的老年人,包括用户体验,可用性评估和深入访谈,集成可解释人工智能 (XAI) 方法。研究结果显示,XAI 注入的电子健康界面在调查老年人与电子健康界面交互时的偏好方面,扮演了重要角色,并确定了用 - 草地监测中的可解释人工智能:提升模型性能和领域适应性
草原监测的可扩展性以及可提供多样生态系统服务的特性使其具备了高生物多样性。然而,自动识别标志性植物存在困难,这阻碍了大规模草原监测的实现。本文深入探讨了这些挑战,具体关注了迁移学习和可解释人工智能(XAI)在草原监测中的应用,突出了 XAI - 您的可解释人工智能有多信息?一项决策评估任务来客观衡量解释的好处
在这篇论文中,我们通过提出一个评估任务来客观并定量地衡量可解释人工智能系统在信息交互中提供给用户的信息能力,并计划在人机决策任务中比较两种 XAI 技术,以深入理解是否用户中心的方法比传统方法更具信息性。
- XAI - 解释的理解形式
在计算机科学和人工智能中,可解释性已经成为一个重要的话题,从而引出了一门称为可解释人工智能(XAI)的子领域。本概念性的文章旨在从跨学科的视角,将计算机科学、语言学、社会学和心理学整合,探讨在 XAI 和其他领域中理解及其形式、评估和动力学 - 基于领域驱动 XAI 方法的金融时间序列预测 AI 系统良好实践假设
机器学习和深度学习在金融预测中越来越普遍,但是这些复杂模型缺乏透明度和可解释性,在金融等敏感领域使用具有挑战性。本文探讨了在金融领域中应用可解释性人工智能的好方法,强调数据质量、面向特定人群的方法、数据属性的考虑以及解释的稳定性的重要性。这 - AAAI年龄预测模型可解释性面临的挑战:两种模态的案例研究
本文介绍了一种使用可解释人工智能(XAI)进行年龄预测的方法,重点关注了 EEG 信号和肺 X 光两种特定的模态。我们分享了年龄预测的预测模型,以促进对这些模态的模型进行解释的新技术的研究。
- 基于规则的异常检测
采用可解释人工智能 (XAI) 方法,使用不同的度量标准来识别样本的相似程度,验证模型非参数和分布假设的假设,检测机器学习中最关键的问题之一 —— 超出分布检测,并在预测维护、车队编队和网络安全等复杂情境中进行了验证,得出了精确的检测和对训 - MM音乐推荐系统中的可解释性
本文讨论了如何在音乐推荐系统中实现可解释性,以改善用户体验,包括讨论 XAI 的各种维度和目标,以及解释组件如何集成于 MRS,并讨论解释质量的要求和策略,最终提供研究展望。