本文介绍了一种新的 Dropout Graph Neural Networks 方法,通过多次运行 GNN 并在每次运行中随机独立地删除一些节点,从而克服了标准 GNN 框架的局限性,并证明了该方法在区分 GNN 不能分开的各种图形邻域方面的可靠性和表达能力,并在实验中验证了其理论发现的表达能力和在已建立的 GNN 基准测试上的竞争力。
Nov, 2021
本文研究了图神经网络的可扩展性和推广性,并提出了灵活的 GNNs 框架,通过多种节点更新函数和内部循环优化,使网络能够灵活适应新图并在多项推理任务中提高泛化能力。
Sep, 2022
本文研究了快速 Dropout(一种用于常规线性模型和神经网络的正则化方法)的后向传递启发式视角,证明了它实现了自适应、参数之间的二次正则化项,对欠拟合情况下的大权重进行奖励,对过度自信预测进行惩罚,并在未正则化的训练损失极小值处消失。该正则化项的导数完全基于训练误差信号,因此没有全局权重吸引器,这可以改善 RNN 的性能。作者基于四个音乐数据集,证实了该假设。
Nov, 2013
本文提出了一种新的随机删除方法 DropMessage,通过随意遮盖传递消息过程中所传递的关键信息,从而提供了一个通用框架。实验结果表明,DropMessage 方法在多任务和各种模型上表现出了效果和泛化能力,并显著减轻了过度拟合、过度平滑和非鲁棒性等问题。
Apr, 2022
本文介绍了一种新颖的对抗性边缘删除方法(ADEdgeDrop),利用对抗性边缘预测器引导边的删除,以提高图神经网络(GNNs)的鲁棒性。
Mar, 2024
该论文提出一种名为 TADropEdge 的自适应数据增强技术,通过考虑图连接性这一重要属性,将随机边删除与图结构信息结合,以生成更为可靠的增强数据,实现了提高图神经网络泛化性能的目的。
Jun, 2021
使用 dropout 来避免局部最小值的出现,同时也可用于稳定凸型 ERM 的梯度下降方法,从而提供准确且保护隐私的预测。
Mar, 2015
本研究提出了一种基于引导选择节点赋予权重的智能随机失活方法,在多个数据集上的实验评估证明了该方法在提高深度神经网络泛化能力方面的有效性。
Dec, 2018
通过采用敌对概念生成的 dropout mask 来改进循环神经网络的性能,实现了对于时序 MNIST 任务、半监督文本分类任务和语言建模任务中 RNNs 的 dropout 技术的有效性提高。
Apr, 2019
单层线性网络中,DropBlock 引入了谱 k-support 正则化,促使解具有低秩和等范数的因子。这个全局极小值可以用闭合形式计算。若在最后一层应用 Dropout,某些假设下此结果可扩展到 Dropout 策略的一般类和深度非线性网络中,并用经常使用的网络结构实验验证了理论结论和假设。
Oct, 2019