- 判别对抗解除
自介绍一个新颖的机器遗忘框架,基于最小 - 最大优化范式的既定原理,并 capitalized on strong Membership Inference Attacks(MIA)的能力来促进从训练模型中遗忘特定样本。
- AAAI多语种文本分类的生成对抗攻击
通过对多语言释义模型进行敌对目标的微调,我们提出了一种对抗性攻击算法,用于伪造多语言分类器的有效的对抗性样本,实验证明该方法在查询效率方面优于现有基准模型。
- AEVA:使用对抗极值分析进行黑盒后门检测
研究针对黑盒深度神经网络的后门检测问题,提出一种基于极值分析的方法(AEVA),该方法可在只有最终输出标签可访问时检测黑客攻击的后门。
- 提高照片真实性
本文提出了一种增强合成图像逼真度的方法,通过卷积网络利用常规渲染流水线产生的中间表示来增强图像。
- EMNLP域对抗微调作为有效的正则化器
介绍了一种新的正则化技术,使用对抗性目标来进行领域敌对微调,可以有效提高预训练语言模型在各种自然语言理解任务中的表现。
- ICML通过对抗最大化互信息来学习离散结构表示
本研究提出使用互信息优化结构化潜变量和目标变量之间的关联,通过对抗目标函数可在二进制编码上估算互信息,应用于文件哈希上表现卓越且高度压缩。
- ICML透过对抗性的视角分析联邦学习
本篇论文探讨了在联邦学习中的模型污染攻击,通过提出一种交替极小化策略和使用参数估计方法使恶意代理更容易成功攻击,同时提出利用可解释性技术生成模型决策的视觉解释,为联邦学习中的漏洞和防御策略提供了借鉴。
- CVPR通过学习未配对数据的视频摘要
本文探讨了视频摘要的问题,并提出了一种从未配对数据中学习视视频摘要的方法,该方法使用对抗性目标并对生成的视视频摘要施加多样性限制,实验结果表明该方法显着优于其他替代方法。