- 基于加密的蒙特卡罗预测的鲁棒不确定性量化
用深度学习模型进行安全关键应用的部署仍然是一项非常具有挑战性的任务。我们介绍了一种新的混合不确定性量化方法,将自适应的蒙特卡罗(MC)dropout 方法与符合预测(CP)相结合,提供可靠的预测集 / 区间,从而大大改进了现有的不确定性量化 - AAAI使用反事实法评估深度神经网络的系统性弱点
通过反事实解释的方法,提出一种有效且计算成本低的算法,以验证现有子集的语义归因,即检查已识别的属性是否可能导致性能下降。在自动驾驶领域的一个示例中展示了该方法,通过高度注释的模拟数据,表明在语义分割模型中存在不同的行人资源的性能差异,但只有 - 学习生成用于鲁棒语义分割的训练数据集
通过结合生成模型和分割模型,我们提出了一种新的方法来改善语义分割技术的鲁棒性,通过生成逼真且可靠的扰动图片来训练可靠的分割模型,从而显著提升语义分割技术在面对真实世界的扰动、分布偏移和样本变化时的鲁棒性,对于安全关键应用具有重要价值并适用于 - U-CE: 语义分割的不确定性感知交叉熵
利用动态预测不确定性的像素权重加权 U-CE(Uncertainty-aware Cross-Entropy loss)训练方法在两个基准数据集上优于传统 CE(cross-entropy loss)训练方法,提高了安全关键应用中更稳健可靠 - 数据驱动政策完善的理论研究
本文提出了一种数据驱动的政策细化方法,特别设计用于安全关键应用的强化学习。我们的方法利用数据驱动优化和强化学习的优势,通过迭代细化增强政策的安全性和最优性。我们的主要贡献在于这种数据驱动政策细化概念的数学形式化。此框架通过从数据驱动验证中出 - 更安全的机器人引导视网膜微创手术的非监督离群检测
本研究探讨使用基于马氏距离的异常检测器来识别机器学习模型中的样本是否与训练时样本相似,并且通过实验表明,该方法在确定性外部数据的适用性上具有可行性,用于机器学习为基础的距离估计模型在机器人引导下的显微手术过程中可能起到检测数据异常的作用。
- DUDES:利用集合的深度不确定性蒸馏进行语义分割
本研究介绍了一种新方法 Deep Uncertainty Distillation using Ensembles for Segmentation (DUDES),它能够高效地进行深度神经网络的预测不确定性估计,而不会牺牲性能,以解决自动 - DeepSaDe:学习保证域约束满足的神经网络
本文提供了一种训练神经网络的方法,用于满足各种领域约束。该方法将线性模型学习的思路引入神经网络,并添加了关键的约束传播和基于梯度下降和 CSP 求解的权重更新。实验结果表明,该方法足够灵活,可以保证满足神经网络中的广泛分布的约束。
- QEBVerif: 神经网络量化误差边界验证
本研究提出了一种深度神经网络的量化误差边界验证方法,其中包括了一个差分可达性分析和一个基于混合整数线性规划的验证方法。通过我们的实验,我们证明了该方法的有效性和高效性。
- 隐私与可解释性:全面影响基准
该研究首次研究了隐私学习技术对基于深度学习模型的生成解释的影响,并在多个领域的各种图像和时间序列数据集上进行了详尽的实验分析,提出了在实际应用中该选择哪种技术的明确建议。
- Boosted Trees 的归纳解释计算
介绍了一种用于 Boosted Tree 模型中的推导解释生成的新方法,称为树特定解释,可以在多项式时间内计算,实验证明该方法具有较高的可扩展性。
- KDDPAC-Wrap:半监督 PAC 异常检测
提出了一种半监督异常检测方法 PAC-Wrap,通过提供 PAC 保证,对虚拟任何现有的半监督和无监督异常检测方法进行增强,以确保其能够对错误的负面和错误的正面进行探测,从而确保对类似于自动驾驶这样的安全关键型应用程序中的异常检测进行可靠的 - IJCAI逻辑约束下的深度学习
本文综述了利用逻辑指定的背景知识以获取性能更好、学习数据更少或保证符合背景知识的神经模型的研究,并根据表达背景知识的逻辑语言和实现目标进行分类。
- 机器学习软件测试
讨论机器学习的软件测试以确保其正确性和可靠性,尤其是在安全关键应用中存在欺骗和错误等挑战,探讨六个关键挑战领域及其局限,提出继续研究方向。
- 对抗学习攻击和防御的教程
本文主要介绍了机器学习算法在数字经济和人工智能等领域中的广泛应用,特别是在安全关键应用领域中的重要性。同时,文章详细介绍了对抗机器学习攻击的原理、攻击类型及当前各种防御机制的深度分析。
- ICML使用 Langevin 动态实现神经网络差分隐私训练,并获得预测不确定性校准
通过将随机梯度 Langevin 动力学用于差分私有随机梯度下降,我们实现了更可靠的不确定性估计,在医学诊断等安全关键应用中具有重要意义。
- 通过屏蔽实现安全的多智能体强化学习
本研究提出两种安全性保障方法,并对多智能体强化学习进行了实验验证。结果表明,这两种方法可以在不损害智能体学习质量的情况下保证其安全,其中,基于因式分解的屏蔽方法在智能体数量上更具可扩展性。
- 深度学习在多变量时间序列回归中的对抗性样本
探索 DL 在多元时间序列回归中的脆弱性,发现在安全关键和成本关键应用中,所有评估的 DL 回归模型都容易遭受对抗攻击。
- 深度神经网络可靠性认证
本文对深度神经网络抗对抗攻击的可靠性进行了研究和分析,并提出了目前的防御方法以及相应的理论和实践意义和发现,最后在不同数据集上提供了全面的鲁棒性验证和训练方法。
- ICML深度神经网络的置信度感知学习
本文提出了一种基于 Correctness Ranking Loss 的深度神经网络训练方法,可以对类别概率进行显式的正序排名,提高置信度预测。该方法易于实现,不需要额外的计算代价,适用于现有体系结构,并且在分类基准数据集上表现良好。同时,