- 基于分布鲁棒优化的差分隐私
本文利用分布式鲁棒优化技术,开发了一种机制设计模型,以实现最高准确度和隐私预选级别的非渐近和无条件最优性保证。
- ES-Single 中展开计算图的低方差梯度估计
提出了一种基于进化策略的算法 ES-Single 用于计算未展开的计算图中的梯度,其通过对元损失表面的平滑化克服了递归函数应用中出现的混沌,与最近提出的持久进化策略(PES)类似,ES-Single 是无偏的;相比 PES,ES-Singl - 面向域泛化的随机对抗样式扰动
提出了一种新颖的领域泛化技术,随机对抗样式扰动(RASP),该算法通过扰动特征的样式来捕捉每个领域的特征统计信息,并通过特征混合增强学习源域的知识,以提高领域泛化能力,尤其是在大规模基准测试中
- DeltaScore:通过不同的扰动评估故事生成
该论文介绍了一种针对故事生成的评估方法 deltascore,它利用扰动来评估细颗粒度的故事因素,并表明其与人类判断的相关性。
- PR-MCS: 针对多语言图像字幕生成的扰动鲁棒度量
本文提出了 Perturbation Robust Multi-Lingual CLIPScore (PR-MCS) 作为一种新型的无参考图像字幕度量标准,应用于多种语言,以确保对各种干扰类型的语言扰动具有高度鲁棒性。
- ReCode: 代码生成模型的健壮性评估
本文提出一种针对代码生成模型综合鲁棒性评估的基准测试 ReCode,并定制了超过 30 种变形以评估模型的鲁棒性性能,同时提出了针对每种扰动类型的鲁棒性度量,重点观察了在 SOTA 模型上的表现,发现 CodeGen 比 InCoder 和 - EMNLP用最小扰动生成文本对抗样本
本文提出了一种新的对抗攻击策略,旨在找到与原始文本相似度极高的对抗文本,同时引入最小扰动;实验结果表明,与现有攻击方法相比,我们的方法在四个基准数据集上的成功率更高,扰动率更低。
- 具有 ε- 扰动的强彩票假设
本研究通过在预训练步骤中对权重的波动进行波动,拓展了强彩票符号假设的理论保证,从而回答了两个开放性问题:(1)通过在强编码符号假设中允许随机初始权重的 ε- 比例扰动,是否可以减少候选网络的超参数化要求?(2)SGD 的权重变化是否与这些扰 - 全球攻击图神经网络:通过不可察觉的节点注入
本文提出一种用于图神经网络的对抗攻击方法 GANI,通过注入虚假节点以达到攻击的目的,在结构和特征领域中进行不可察觉的扰动,通过基于遗传算法的统计信息确定新注入节点的度和生成特征并选择邻居节点,该方法在针对基准数据集和防御 GNN 的实验中 - 基于分散像素扰动的图像分类器模型无感后门触发器
本文提出了一种新的背门触发器,是一个在图像内弱扰动而在整体上产生强识别的三维二进制图案,既易于生成也高效,可以有效地攻击深度神经网络模型,并超越了现有的已知攻击方式。
- 一种新型对抗样本
该论文提出了一种新型对抗性攻击方法 NKE,能够在图像中添加可察觉的干扰,导致人类决策产生错误,但对于模型却维持原始决策,实验结果表明该方法能够有效地欺骗深度神经网络。
- 对于(几乎)随机神经网络,对抗性噪声是线性可分的
通过理论证明及实验证据表明,对数据集加入一些对抗性的噪声可以给原始数据集注入一个分布扰动,并且这些噪声在特定条件下可以很轻易地被分类器分类。
- 大规模隐私保护网络嵌入:针对私有链路推断攻击
本文提出了一种针对保护隐私的网络嵌入方法,使用干扰原始网络的方式来减少泄漏隐私链接的风险,并通过量化隐私增益和效用丢失来确定最佳干扰方案,以获得最优的隐私效用权衡。
- ICLR评估 Fourier 神经算子的对抗鲁棒性
本研究提供了首次关于科学发现模型对抗鲁棒性的研究,通过在指定模型上生成敌对性的样本数据,我们发现模型的鲁棒性随着扰动水平的增加而迅速下降,这为评估基于机器学习的科学发现模型提供了敏感性分析工具和评估原则。
- 通过扰动奖励学习神经上下文强化学习
利用扰动更新神经网络,消除显式探索和计算开销,可在标准规则条件下实现 $\tilde {O}(\tilde {d}\sqrt {T})$ 的遗憾上限,是一种高效且有效的神经自适应算法。
- ACL打破,扰动,建立:通过问题分解自动扰动推理路径
本研究提出了一种名为 BPB 的自动推理定向扰动(AROP)框架,用于针对问题 - 答案对进行符号扰动,并生成高质量的问题 - 答案对,同时构建了三个阅读理解基准测试的评估集,从而向传统的依赖于人工注释的基准测试构建提出挑战。
- ACL解决神经机器翻译在输入扰动中的漏洞
本文提出了一种通过 Context-Enhanced Reconstruction(CER)方法提高神经机器翻译(NMT)在噪音输入下的稳健性的方法,该方法包括通过引入人造干扰词破坏自然性来抵制噪声,并通过提供更好的上下文表示来防止噪声传播 - ACL双重扰动:关于鲁棒性和反事实偏差评估的稳健性
本文提出一种 “双重扰动” 框架,以揭示测试数据集之外的模型弱点。我们将该框架应用于研究两种基于扰动方法的分析模型稳健性和反事实偏差的方法,并引入新的攻击方法以找到易受攻击的案例。该方法可揭示在测试数据集中未直接显示的隐含模型偏见。
- 自适应范数约束的快速最小范敌对攻击
本文提出了一种既能处理不同的扰动模型,对超参数选择具有鲁棒性,又不需要对抗起始点,且仅需几步轻量级的迭代即可收敛的快速最小范数攻击方法(FMN),并通过广泛的实验表明 FMN 在收敛速度和计算时间方面明显优于现有的攻击方法,同时报告了相当或 - CVPR针对领域偏移场景的后验不确定性校准
本文探讨了深度神经网络中不确定性校准问题,并提出了一种针对域偏移的后处理校准方法,其通过对验证集的样本进行扰动,可大幅提高模型的校准性能。