适用于行人检测的无模型依赖的身体部位相关性评估
本文提出了一种使用高维提示层和估计大网络输出方差的方法来改进知识蒸馏技术, 并采用手动设计的特征来提升小型网络的性能, 实现了比AlexNet更好的性能, 同时拥有大网络$400 imes$更少的参数。
Dec, 2016
研究了不同的关联和合并策略对神经网络物体检测中表观不确定性的影响,发现正确选择亲和-聚类组合可以显著提高分类和空间不确定性估计的有效性以及所得到的物体检测性能。
Sep, 2018
本研究提出了 part-aware sampling 方法,利用人类直观感知对象之间的层次关系,解决 Open Images Dataset 数据集不完整的问题,并在 Google AI Open Images 竞赛 2018 中获得了第一和第二名。
Nov, 2018
本研究通过直接的跨数据集评估的一般性原则,发现了现有最先进的行人检测器在跨数据集评估中通常表现不佳,主要因为其设计可能偏向传统的单数据集训练测试流程中的流行基准,而训练数据源不够密集和多样化。此外,本文提出了一条渐进的培训流水线,可以明显地提高与自动驾驶相关的行人检测的性能。
Mar, 2020
提出了使用 RES 框架进行监督解释的方法以提高深度神经网络的外推泛化性和内在的可解释性,该框架可解决标注不准确、区域不完整和分布不一致等挑战,经测试在两种实际图像数据集上均表现较好。
Jun, 2022
本文提出了Explanation Concentration (XC) scores,并以KITTI and Waymo 3D目标检测等任务为例,取得了比其他启发式方法更好的效果,验证了XC在更多应用场景中的潜力。同时,我们还发现在量化评估中,IG等较为复杂的XAI方法并不比更简单的方法更有价值。
Oct, 2022
本文提出了后续可解释的人工智能方法L-CRP,可以生成更细致的解释,自动识别和可视化模型在推理过程中学习、识别和使用的相关概念,并在输入空间中精确定位它们,进而揭示和验证背景特征的使用和存在,并说明对各个流行数据集的效果。
Nov, 2022
研究将人的注意力知识融入到基于显著性的XAI(可解释人工智能)方法中,以增强计算机视觉模型的合理性和可靠性,并开发了新的基于梯度的XAI方法来生成物体特定的解释,并使用可训练的激活函数和平滑核来最大化XAI显著图与人类注意图的相似性,从而在物体检测模型中同时提高了可靠性和合理性。
May, 2023
通过对Saliency methods在各种目标检测模型中的应用,以及Guided Backpropagation、Integrated Gradients,以及它们的Smoothgrad版本等saliency方法的新定性标准的定义,发现EfficientDet-D0是最直观的方法,独立于saliency方法,通过测试无障碍解释模型。
Jun, 2023
本文提出了一个针对视频领域的统一框架,旨在在维持高学习性能的同时,通过融合时序信息和实现局部解释,扩展针对计算机视觉数据的细粒度解释框架,并将六种现有的解释技术应用于视频数据,进行了评估和比较研究。研究结果表明,3D RISE、3D LIME和3D Kernel SHAP优于其他方法。通过将解释过程分解为可管理的步骤,我们便于研究每个选择的影响,并进一步改进解释方法以适应特定的数据集和模型。
Jan, 2024