基于变形关系的可微分神经计算机对抗攻击
分析了区别于传统深度学习的可微分神经计算机的不足,提出更加稳健、可扩展的 rsDNC,相较于其他模型提高了 bAbI 任务的性能,同时在 CNN RC 任务上也有较好的应用效果。
Jul, 2018
本文提出了一种基于记忆变换的可微分神经计算机(MT-DNC),该模型将工作存储器和长期存储器集成到 DNC 中,实现了从工作存储器到长期存储器的自主转换,并有助于有效地提取获得的知识以提高推理能力。实验结果表明,与其他现有的 DNN 和 DNC 模型相比,已提出的方法实现了更好的性能和更快的收敛速度。
Jan, 2023
Differentiable Neural Computer(DNC)优化算法任务和问答系统,修复存储器分配问题提高了性能。
Apr, 2019
本文介绍了一种基于对深度神经网络输入输出映射的精确理解的算法,用于制造可以轻易被误分类的针对深度神经网络的对抗样本,通过计算不同类型的样本之间的硬度度量对不同的类型的样本抗击抗性进行了评估,并提出了防御针对性攻击的初步方法。
Nov, 2015
通过研究和比较多种神经网络,本文发现随着图片识别准确度的提高,对抗性攻击虽然越来越容易使模型改变分类决策,但同时攻击的特征也越来越远离与人类视觉识别相关的特征,即使人工以同样方式造成的影响。而通过神经协调器网络的训练,可以使神经网络更加接近人类视觉识别应有模式,从而提高对抗性攻击下的鲁棒性。
Jun, 2023
提出了一种新的对抗样本解决方案,该方案通过随机破坏样本中的特征,阻止攻击者构建有影响力的对抗样本,从而显著提高深度神经网络对抗样本的鲁棒性,同时保持高分类准确性。
Oct, 2016
提出一种基于永续度量的方法,通过创造高度扭曲网络特征空间的攻击来达到高度通用的敌对样本,旨在打破相对有限的目前攻击的限制,并可将其通过多个网络扩展到多个任务。
Nov, 2018
本文提出了一种针对图像分类器集合的迭代式对抗攻击方法,通过此方法,在 CAAD 2018 针对性对抗攻击竞赛中获得第五名,该方法提高了黑匣子对抗攻击的成功率。
Nov, 2018
研究机器学习模型在解决复杂算法问题时忽视所需计算复杂度对其正确解决问题的影响,讨论了计算时间和内存对隐式算法求解器泛化的影响,通过研究不同可规划步骤数的模型,即规划预算,发现规划预算约束可能导致模型泛化能力差,且降低其对外部内存的充分利用。通过在图的最短路径、凸包、图的最小割和关联召回等方面进行评估,展示了规划预算对学习算法的行为,如学习时间复杂度、训练时间、稳定性以及对大于训练集的输入进行泛化的影响。
Jun, 2024