从人工智能学习:一种融合专家知识作为教师的交互式深度学习方法
本研究旨在实现一种将人类知识嵌入深度神经网络的方法,通过人类知识的可视化编辑,利用注意力机制进行微调,以实现从视觉角度获得更人类可解释的分类结果。
May, 2019
本文提出了 Attention Branch Network(ABN)用于图像识别,它通过引入注意机制来表示图像的重要区域,并以分支结构扩展自顶向下的视觉解释模型,实现端到端的训练,同时提供了可视化的图像解释和获得比基准模型更高的精度。
Dec, 2018
研究将人的注意力知识融入到基于显著性的 XAI(可解释人工智能)方法中,以增强计算机视觉模型的合理性和可靠性,并开发了新的基于梯度的 XAI 方法来生成物体特定的解释,并使用可训练的激活函数和平滑核来最大化 XAI 显著图与人类注意图的相似性,从而在物体检测模型中同时提高了可靠性和合理性。
May, 2023
本文提出了两种新的基于学习的 eXplainable AI(XAI)方法,用于深度卷积神经网络(DCNN)图像分类器,称为 L-CAM-Fm 和 L-CAM-Img,通过插入在原始(冻结的)DCNN 中的注意机制,并被训练为从最后一个卷积层的特征映射中导出类激活映射(CAMs)。在 ImageNet 上的实验评估表明,提出的方法在要求单次正向传递的推理阶段实现了竞争结果,并基于推导得出的解释进行了全面的定性分析,提供了有价值的洞察力,用于理解分类错误背后的原因,包括可能影响训练分类器的数据集偏差。
Sep, 2022
本文提出了一种新的交互式学习框架,即交互式注意力学习(IAL),其中人类监督者可以交互地操纵分配的注意力来纠正模型的行为,并通过更新注意力生成网络来进行修正。通过使用样本高效的注意力机制和一种小样本成本有效的重排算法,本文解决了模型过度拟合和标注匮乏等挑战,将 IAL 在多个领域(如医疗保健、房地产、计算机视觉)的多种时间序列数据集上进行验证,证明了其在几乎不需要重新训练和人力交互成本的情况下,显著优于传统注意力机制或不考虑成本效益的基准方法。
Jun, 2020
本论文旨在通过提供解释训练并确保模型的解释与真实解释的一致性,教会深度学习模型以恰当的原因做出正确的预测。实验结果表明,所提出的方法比传统训练模型更加可靠和有效。
Feb, 2019
提出了一种交互式注意力对齐(IAA)框架,旨在实现可操纵的深度神经网络(DNNs),其中利用 DNN 模型解释方法作为交互媒介,直接调整注意力以改善 DNN 的准确性和公正性,并提出了一个计算流程,即 GRADIA,可以同时最大化注意力质量和预测准确性。通过两项研究,发现这种框架可以显著提高模型准确性和公正性,为未来交互式用户界面设计提供了启示。
Feb, 2022
该论文的研究内容主要涵盖了人工智能、深度神经网络、可解释 AI、视知觉技术以及深度模型的调试等领域。论文提出的 Perception Visualization 技术通过可视化深度模型对于输入图像的感知来解释模型预测结果,研究发现人类能够更好地理解和预测系统决策,从而使深度模型的调试和部署更加可靠。
Apr, 2022
本文提出一种新颖的方法来模拟和模拟人类注意力的近似预测模型,并将其作为结构化辅助特征图输入到下游学习任务中,通过在物体检测和模仿学习两个任务中的应用实验证明了人类注意力的预测可以提高训练模型的鲁棒性和在低数据情景下的快速学习。
Aug, 2023