对视觉任务中边缘模型与高精度基础模型差异的表征
深度立体匹配网络结合边缘检测网络,构成一种多任务学习网络,其中边缘线索提供了出色的线索,以实现细节区域的视差估计精度的提高,并获得 state-of-the-art 的表现。
Mar, 2019
使用ImageNet-X图像数据集,研究了模型的架构、学习模式和训练程序对模型在不同姿态、背景和光照下识别失败的影响。研究结果表明数据增强技术可以提高模型对某些因素的鲁棒性,但也会对其他因素产生溢出效应。未来应该集中精力收集更多数据和了解数据增强方案,以提高现代视觉模型的鲁棒性。
Nov, 2022
本论文旨在解决多任务模型在不同输出模态中的一致性问题,通过引入COCOCON基准数据集和使用一种基于排名相关性的辅助目标来衡量模型在多任务中的一致性,旨在提高模型的一致性,同时保持模型原有的精度。
Mar, 2023
我们提出了一种新的评估方法,用于基准测试最先进的可解释AI归因方法,该方法由合成的分类模型及其衍生的地面实况解释组成,该方法提供了关于XAI方法输出的更深入的洞察。
Aug, 2023
通过开发基于协作学习的模型PEdger,我们试图解决边缘检测中的深度学习模型计算成本大、模型尺寸大、噪声标注和不准确性等问题,并通过大量实验证明了其在准确性、速度和模型尺寸方面的优越性。
Aug, 2023
为了解决标准化鲁棒性评估指标缺乏和过多无关基准数据集的问题,我们引入了XIMAGENET-12,一个可解释的基准数据集,包含20万多张图像和15,600个手动语义注释。同时,我们提出了一个新的鲁棒性评估标准,超越了模型生成能力的评估。研究人员和从业者可以利用这个资源,在具有挑战性的条件下评估他们的视觉模型的鲁棒性,并从实际的计算机视觉系统需求中受益。
Oct, 2023
深度学习算法的崛起在计算机视觉任务中取得了重大进展,但它们的“黑匣子”性质引发了对可解释性的关注。可解释人工智能(XAI)作为一个重要的研究领域出现,旨在打开这个“黑匣子”,并揭示人工智能模型的决策过程。视觉解释作为可解释人工智能的一个子集,通过突出显示输入图像中的重要区域,为处理视觉数据的人工智能模型的决策过程提供直观的见解。我们提出了一个XAI基准,其中包括来自不同主题的数据集集合,为图像提供了类别标签和相应的解释注释。我们引入了一个全面的视觉解释流程,在这个流程中整合了数据加载、预处理、实验设置和模型评估过程。此结构使研究人员能够公平比较各种视觉解释技术。此外,我们对视觉解释的超过10种评估方法进行综合评述,以帮助研究人员有效利用我们的数据集合。为了进一步评估现有的视觉解释方法的性能,我们使用各种以模型为中心和以真实标注为中心的评估指标在选定的数据集上进行实验。我们希望这个基准可以推动视觉解释模型的进步。这个XAI数据集合和用于评估的易于使用的代码公开可访问。
Oct, 2023
使用可解释人工智能(XAI)进行模型调试,通过专家驱动的问题识别和解决方案创建,发现训练数据集作为主要偏见源,并建议进行模型增强,以帮助识别模型偏见,实现公平和可信赖的模型。
Jan, 2024
通过优化现有的深度神经网络(DNN),减小模型大小并减少内存利用,提高硬件利用率,并在资源受限的边缘环境中便于设备内训练。在Caltech-101图像分类和PCB缺陷检测实验中,我们的模型表现优于原始模型Xception和轻量级模型EfficientNetV2B1和MobileNetV2,在测试准确性、内存利用和训练推断时间等方面都取得了较好的结果,同时满足精确性和低内存利用率目标。
Mar, 2024
该研究介绍了一种新的XAI集成化视觉质量检测框架,通过优化在低资源边缘设备上的语义分割模型部署,旨在解决在工业环境中在低资源边缘设备上部署深度学习技术的挑战,并提供人为中心的可解释性,通过视觉和文本解释为最终用户提供解释,以提高模型的可信度和可解释性。
Jul, 2024