- 关于图缩减的鲁棒性与 GNN 后门攻击
本文通过对六种粗化方法和六种稀疏化方法的综合鲁棒性分析,研究了图结构规模的 GN 任务中图规约方法在最新的后门攻击下的鲁棒性,结果表明鲁棒性因方法而异,一些方法甚至加剧了攻击,因此要确保图规约方法的计算效率提升不会危及 GN 系统的安全性。
- ACL理解用于检索增强图像字幕生成的检索鲁棒性
近期关于图像字幕检索增强模型的研究进展强调检索相关字幕对于具有强领域转移能力的高效轻量级模型的重要性。本文分析了 SmallCap 检索增强字幕模型的鲁棒性,发现该模型对出现在大多数检索字幕中的标记敏感,并可能将这些标记复制到最终字幕中。基 - 证据型主动识别:智能谨慎的开放世界具身化感知
为了解决识别模块对于意外输入的处理能力不足的问题,我们将主动识别视为一种按步骤的证据收集过程,在证据组合理论的指导下提供逐步的不确定性量化和可靠的预测。此外,本文提出的奖励函数有效地表征了在开放环境中操作时行动的价值,并通过一系列识别和鲁棒 - 深度视觉特征的神经元解释破坏
通过统一的流程对神经元解释方法进行了首次的鲁棒性分析,揭示在探测数据中添加随机噪声和设计良好的干扰可以显著破坏这些解释,引发对神经元解释方法在现实应用中的安全和公平性的关切。
- 使用拉格朗日技术对连续深度模型进行鲁棒性分析
本文提出一种统一的确定性和统计性 Lagrangian 验证技术,用于量化任何连续时间过程的行为鲁棒性,故文中回顾了 LRT-NG,SLR 和 GoTube 算法,比较了确定性和统计性保证的不同方法,并通过实验证明 Lagrangian 技 - 基础分割模型的稳健性分析
本文通过性能评估研究了在分割任务中对真实世界分布偏移抗干扰能力的不同模型,发现 Visual Foundation Models(VFMs) 对基于压缩的破坏不具备鲁棒性,而非 VFM 模型在监督下表现更加强健,但在零样本评估中仍然竞争性鲁 - PromptBench:评估大型语言模型对对抗性提示的鲁棒性
本研究使用 adversarial prompts 对 Large Language Models 进行度量,并分析了 prompt 鲁棒性及其传递性,为 prompt 组合提供了实用性建议。
- 一种差分测试框架用于评估图像识别模型的鲁棒性
本文提出了一种差分测试框架,该框架可对多种计算环境参数进行深度学习模型变量生成、执行、差分分析和测试,对三种热门图像识别模型使用 ImageNet 数据集进行鲁棒性分析,评估了更改深度学习框架、编译器优化和硬件设备的影响。
- 使用 Z3 进行 FNN 全局鲁棒性的形式建模和验证
本篇论文提出了一种称之为 DeepGlobal 的全局稳健性验证框架,通过利用 SMT 求解器 Z3 进行实现并进行多重改进,来评估该框架在一系列基准数据集上的有效性和可行性。
- 关于文本生成模型基于评估指标的盲点
本文探讨了一种有用但经常被忽视的强健性分析方法,即使用合成数据进行压力测试。我们检查了基于预训练语言模型的一系列最近提出的生成、翻译和摘要任务的评估度量标准,并揭示了现有度量标准中的一些盲点和不足。我们找到了一些度量标准的不敏感性、偏见甚至 - ICLR鲁棒公平聚类:一种新的公平性攻击和防御框架
通过提出一种针对公平聚类的黑盒公平攻击来分析公平聚类算法的鲁棒性;该攻击可以显著降低公平性性能。最后,提出一种新的公平聚类方法 Consensus Fair Clustering (CFC),将一致性聚类转化为公平图分割问题,并迭代地学习生 - 自动语音识别端到端神经模型的鲁棒性分析
本文研究了预训练神经模型在自动语音识别中的鲁棒性,并对 wav2vec2,HuBERT 和 DistilHuBERT 进行了鲁棒性分析,发现它们在 LibriSpeech 和 TIMIT 数据集上对噪声的鲁棒性不同,同时进行了层次分析以预测 - 特征重要性和反事实解释的鲁棒性调查
研究了金融领域中两类常用的局部解释方法的健壮性,给出了健壮性分析的分类方法和结果,并探讨了如何扩展分析方法以确定可靠的解释方法。
- 偏标记学习中平均损失的鲁棒性
本研究分析了偏标记学习的策略(IBS)和平均策略(ABS),发现使用平均 PL 损失(APLL)可以在多类损失有限的情况下始终保持鲁棒性,而使用无界损失的 APLL 可能是非鲁棒的。研究还发现,使用有限损失的 ABS 可以与使用无界损失的 - ICLRRobustPointSet: 用于基准测试点云分类器鲁棒性的数据集
本研究旨在探讨如何增加点云分类模型对于未知变换的鲁棒性,通过创建名为 RobustPointSet 的公共数据集,研究表明即使在点云分类领域进展很大,也没有一种单一的架构能够一致地表现得更好。
- 污染聚类的黑盒对抗攻击
本文提出了一种针对聚类算法鲁棒性的黑盒对抗攻击算法,该算法可以通过一个黑盒聚类算法生成对抗性样本,并对其鲁棒性进行测试,实验结果表明该算法可以有效测试不同类型的聚类算法的鲁棒性。
- ICLR稳健性分析解释的评估和方法
本文提出一种基于鲁棒性分析的特征解释新的评估标准,通过针对我们提出的评估标准进行优化,获得了松散且必要的解释和可以将当前预测移动到目标类的特征集。我们通过多领域实验和用户研究验证了我们评估标准和解释的有用性。
- 隐式深度学习
隐式深度学习预测规则推广了前馈神经网络的递归规则。这种规则基于涉及单个隐含特征向量的不动点方程的解,因此只是隐式定义的。隐式框架极大地简化了深度学习的符号表示,并在新体系结构和算法、稳健性分析和设计、可解释性、稀疏性和网络架构优化等方面开辟 - 针对非监督式节点嵌入方法的数据污染攻击
本文研究了无监督节点嵌入方法(如 DeepWalk,LINE 和 node2vec)的鲁棒性问题,提出了一种数据定位攻击来攻击这些方法,针对两种流行的节点嵌入方法(DeepWalk 和 LINE)提出了有效的解决方案,并在多个真实图上评估了 - Hottopixx 的鲁棒性分析:一种用于分解非负矩阵的线性规划模型
该论文提供了一种新的、更具有鲁棒性更广泛的非负矩阵分解方法,使用一种后处理策略来处理数据集中的重复项和近似项。