- CHG Shapley: 高效的数据评估与选择,迈向可靠的机器学习
通过计算每个数据子集对模型准确性的效用近似值,在单个模型训练期间推导 CHG(Conduct of Hardness and Gradient)评分的 Shapley 值闭式表达式,我们在大规模数据集上将数据估值方法从多次模型重训练的形式改 - 计量环境下的可信人工智能
国家物理实验室 (NPL) 在可信人工智能 (TAI) 领域进行的研究回顾,特别是在计量学,即测量科学的背景下,关于可信机器学习 (TML)。我们描绘了 TAI 的三个广泛主题:技术、社会技术和社会,这些主题在确保开发的模型可信且可以依赖于 - 跨输入认证培训:通用扰动
我们提出了一种新的方法 CITRUS,用于训练网络以对抗 UAP 攻击者,通过广泛的评估表明,我们的方法在标准准确性方面表现出色(高达 10.3%),并在实际应用中实现了最佳认证 UAP 准确性指标的性能。
- 2023 年机器学习可信度可视化现状再探
可解释和可靠的机器学习的可视化仍然是信息可视化和视觉分析领域中最重要和深入研究的领域之一,涉及医学、金融和生物信息等各种应用领域。本文在我们 2020 年的最新报告基础上,收集了经同行评审的描述可视化技术的文章,根据之前建立的 119 个分 - 挑战遗忘:揭示机器非遗忘最差情况集合
机器遗忘 (MU) 是一个重要问题,旨在消除特定数据对模型性能的影响,同时保持模型的实用性。通过从对抗角度进行最坏情况遗忘子集的识别,我们提出了一种新的 MU 评估方法,通过双层优化原则在上层优化级别放大遗忘挑战,在下层进行标准训练和遗忘, - 可信机器学习的规章游戏
我们提出了一个框架,将可信机器学习视为一个多目标多代理优化问题,在此基础上引入一种名为 Regulation Games 的博弈论模型来解决那些忽视机器学习模型构建者与评估其可信度的问题。我们通过一种称为 ParetoPlay 的新均衡搜索 - 利用注意力和对抗训练的多变量时间序列表示学习
本文提出了一种基于变压器自编码器的、使用对抗训练方案进行正则化的人工多变量时间序列信号生成方法,通过 t-SNE 可视化、动态时间扭曲(DTW)和熵评分对生成的信号进行评估,结果表明与卷积网络方法相比,生成的信号与示例数据集的相似性更高。
- 可信机器学习
机器学习的可信度问题,主要关注可信机器学习、越界泛化、可解释性、不确定性量化和可信度评估等领域研究。
- 信任,但请验证:使用自监督探究来提高可信度
本文介绍了一种新的自我监督探测方法,该方法能够检查和减轻训练模型的过度置信问题,从而提高其可信度。此方法在信任相关任务 (误分类检测、校准和超出分布检测) 中得到了广泛验证和应用。
- FEAMOE: 公平、可解释和适应的专家混合模型
本文提出了一种新颖的 “混合专家” 框架 FEAMOE,旨在学习更公平、更可解释 / 易解释的模型,能够快速适应分类器精度和公平性上的漂移,多个数据集上的实验证明了该框架无论在精度还是在公平方面都可以与神经网络相媲美,且能够快速地解释模型决 - KDD校准解释
本文研究了不确定性和可解释性之间的联系,特别是探讨了置信度和解释性之间的关系,发现模型的置信度与我们解释模型的能力有交互作用,并提出了一种简单的实践方法来改善解释结果:调整置信度以提高解释效果。
- 基于 OOD 训练数据的许多方法估计相同核心量的组合来分解 OD 检测
本文旨在识别常见的目标,以及识别不同 OOD 检测方法的隐含评分函数。我们展示了许多方法在共享学习方式下表现相似,二进制区分器达到与异常暴露相似的 OOD 检测性能,还展示了置信度损失具有在理论上最优得分函数不同但与训练和测试 out-di - 可信异常检测:一项调查
本文简要综述了现有的工作,并从解释性、公平性、鲁棒性和隐私保护的角度讨论了可信的异常检测的开放问题。
- ECCV使用输入 - 梯度空间对齐进行属性鲁棒性训练
本研究提出了一种训练方法(ART),能够减小图像空间相关性对模型解释鲁棒性的影响,并在多个标准数据集上显著提高了解释鲁棒性,并且在弱监督目标定位任务上实现了新的最佳性能。
- 鲁棒归因正则化
通过公理归因神经网络的视角,我们提出了经典鲁棒优化模型的训练目标,旨在实现鲁棒的集成梯度归因。实验结果表明了我们方法的有效性,并表明需要更好的优化技术或更好的神经网络架构来进行鲁棒的归因训练。