工业质量控制的交互式解释性人工智能系统
该论文提出了一种交互式系统,通过利用最先进的可解释性技术与深度学习模型,帮助放射科医生在乳腺癌筛查中理解模型决策的过程,并且利用用户交互逐步提供更细致的可解释性报告,从而促进医学 AI 的采纳。
Sep, 2022
本文介绍了一个交互式系统,使用户能够操作图像,探索深度学习图像分类器的稳健性和灵敏度,用户可以使用图像修复算法删除图像特征并实时获得新的分类,从而通过实验性地修改图像并观察模型的反应,提出各种 “如果” 的问题。我们的系统允许用户比较和对比人类和机器学习模型用于分类的图像区域,揭示了一系列惊人的结果,从可观的失败(例如,“水瓶” 图像在去除一个人后变成了 “音乐会” )到卓越的弹性(例如,“棒球选手” 图像即使没有手套或基座也能正确分类)。我们在 CVPR 会议上展示了我们的系统以供观众直播尝试,我们的系统在 https 网址上开源,视频演示可在此 https 网址上获得。
Jun, 2018
评估了基于人工智能决策支持系统与改进的人机界面的影响和应用,利用动态影响图、隐藏马尔可夫模型和深度强化学习,在复杂工业和化学过程控制室中减轻操作员负担、提高情景感知以及提供不同干预策略的功能。
Feb, 2024
通过使用基于 CAM 的解释来完善语义分割模型,本研究提出了提升视觉质量检测系统的框架。该框架包括模型训练、基于 XAI 的模型解释、XAI 评估和注释增强等步骤,通过解释和专家洞见进行指导。评估结果表明,基于 XAI 的模型在复杂目标分割方面优于原始的 DeepLabv3-ResNet101 模型。
Jan, 2024
本文旨在通过为二分类任务提供人机学习界面,使人类注释者能够利用反事实例来补充标准的二分类标签,以缓解人类注释者适应传统标签所施加的限制。
Mar, 2024
本文提出了一种交互式学习的图像标题生成模型,该模型使用数据增强方法来扩大人类反馈所提供的有效学习信息,并智能地将其集成到模型中,本文重点讨论了其反馈收集、数据增强和模型更新三个关键组件的实现方法。
Feb, 2022
我们提出了一种用于最新深度学习为基础的机器人程序优化器的解释用户界面(XUI),它提供了不同的用户体验以应对用户的不同技能水平,同时引入了可解释的人工智能(XAI)功能以促进深度学习方法在实际应用中的应用。为了评估 XUI 对任务性能、用户满意度和认知负荷的影响,我们提出了初步用户调查的结果,并提出了一个大规模后续研究的研究设计。
Apr, 2024
本文提出一种基于协同语义推理(CSI)的框架,通过人机视觉交互设计,实现人与算法的可视化协同,揭示深度学习模型的推理过程,从而使用户能够理解和控制模型的部分推理过程,其应用于文档摘要系统的案例研究表明了其可行性。
Jul, 2019
本文研究在人机交互系统中,通过基于蒙特卡罗 dropout 的不确定性测量来提高透明度和性能,以解决卷积神经网络在图像分割任务中存在的置信度不足和监管政策不一致性的问题,通过多元线性回归来解释预测质量。
Jul, 2020