基于视觉对应关系的解释可提高 AI 鲁棒性和人工智能团队准确性
通过使用 AdvisingNet 和一种新的重新排序算法,将输入图像与事后最近邻解释进行比较,本文旨在提高图像分类准确性,同时提高人工智能团队和分类器的准确性。
Aug, 2023
利用视觉 - 语言模型识别视觉分类任务中的基于语言的描述器,通过在图像和文本之间的预训练联合嵌入空间进行线性组合,得出每个单词与基于视觉的分类器的关联度权重,从而使非专家人员能够以非平凡水平完成专业医学任务。
Nov, 2023
通过提出 Explanation-assisted Guess Which (ExAG) 游戏作为评估 AI 生成的解释对人 - AI 协作任务产生影响的一种方法,我们发现人类在进行协作任务时,当 AI 解释其答案时,能更容易地正确猜测到秘密图像,并且有用的解释显着提高了人类的实际表现。
Apr, 2019
人工智能的解释方法对理解深度学习中的决策过程具有重要意义,通过研究对比了三种解释方法的可解释性,结果显示这些方法虽然强调的区域各不相同,但都能提供人类几乎相等的深度理解,进一步增强了这些方法在提升人工智能透明度方面的价值。
Oct, 2023
该论文的研究内容主要涵盖了人工智能、深度神经网络、可解释 AI、视知觉技术以及深度模型的调试等领域。论文提出的 Perception Visualization 技术通过可视化深度模型对于输入图像的感知来解释模型预测结果,研究发现人类能够更好地理解和预测系统决策,从而使深度模型的调试和部署更加可靠。
Apr, 2022
AI 模型的可解释性通常会因降低准确性而受到质疑。我们开发了一种训练策略,不仅提高了目标分类方案的解释性,同时并未降低准确性,实现方式是对决策网络作出决策的可视证据进行区域定位,其表示方法为表征哪些像素对网络决策的贡献最大的显著性图。我们的训练策略通过使模型集中于直接对应于地面目标的图像区域的反馈,在自动和人工指标的量化中量化可解释性,并提出了可解释性作为弥合不同域之间视觉 - 语义差距的手段。我们证明,这种方法不仅提高到新领域的泛化性能,而且不会影响在原始领域上的性能。
Mar, 2020
提出了一种短语评论模型,可用于细粒度分类决策的可解释人工智能代理,通过使用反转短语作为负样本进行训练,提高了生成解释的文本质量,并能检测并纠正在句子中的错误短语,有效提高解释生成的可靠性。
Jul, 2018
通过合并深度分类模型生成的解释,研究人员探索了可解释人工智能的潜力,以揭示模型行为的更一致和可靠的模式,进而评估模型所学到的表示。使用选定的 Quantus 库评估指标,证明该方法在本地化和可信度方面的性能优于单个解释。
Apr, 2024
该研究提出了一种通过生成基于概念的原型来解释计算机视觉模型预测的方法,该方法可以快速创建领域专家可直观理解的基于概念的解释。通过与其他基于概念的解释方法的对比,该方法在粗粒度图像分类任务上表现出很好的竞争力,并且在更具挑战性的细粒度任务上甚至可能表现更优。该方法在人机协作环境中通过定性和定量用户研究证明其有效性。
Apr, 2024