- 使用对比鉴别器增强 Star-GAN 进行语音转换
本文提出了一种名为 SimSiam-StarGAN-VC 的方法,利用对比学习和高效的同构网络结构解决了 StarGAN-VCs 模型训练过程中存在的挑战,实验结果表明该模型在客观和主观评价指标上都显著优于现有的 StarGAN-VC 方法 - EvolveHypergraph: 面向群体的动态关系推理预测轨迹
本文提出了一种群组感知的关系推理方法,命名为 EvolveHypergraph,通过推断动态演化的关系来预测多智能体轨迹,该方法在多个数据集上得到了最先进的性能,并提高了推理关系的可解释性和稳定性。
- AdamNODEs:当神经常微分方程遇到自适应矩时估计
提出一种新的模型 AdamNODEs,用来控制时间步中加速度的变化,从而提高 neural ODEs 的训练效果和稳定性,该模型比传统的基于动量的 neural ODEs 和其他方法具有更好的性能。
- 低资源语音识别的改进元学习
提出了一种基于元学习的新框架来改进之前的模型无关元学习(MAML)方法,该方法采用多步损失(MSL)来解决 MAML 方法的稳定性问题,其实验表明 MSL 显著提高了训练过程的稳定性和整个系统的准确性,优于各种语言的 MAML 低资源 AS - CVPRFedCorr: 多阶段联合学习进行标签噪音校正
本文提出了一种名为 FedCorr 的多阶段框架,用于处理具有异构标签噪声的联邦学习,它动态识别嘈杂的客户端,基于每个样本的损失来纠正客户端中的错误标签,并增加了基于估计的本地噪声级别的自适应局部近端正则化项来应对数据异构性并提高训练稳定性 - 通过适应性规则对抗训练实现史塔克伯格博弈的坚韧强化学习
本文介绍了一种用于强化学习的 Stackelberg 游戏模型 ——RRL-Stack,旨在提供额外的鲁棒性训练和解决目前 RL 训练中存在的过度保守智能及训练不稳定等问题,并提出了一种基于 Stackelberg Policy Gradi - Swin Transformer V2:扩大容量和分辨率
本文旨在探索大规模计算机视觉模型,并提出了三项技术来解决训练过程中的不稳定性、预训练和微调之间的分辨率差异以及对标记数据的需求量问题,成功训练了一个规模为 30 亿参数的 Swin Transformer V2 模型,在多项计算机视觉任务上 - SphereFace 再现:统一的超球面人脸识别
本文介绍了一个统一框架来理解超球面人脸识别中的大角度间隔,进一步扩展了 SphereFace 的研究并提出了一个稳定性较好的改进版,结果表明这个改进版在识别准确率上比当前最先进的方法更好或竞争力更强。
- MM神经网络权重是否考虑类中心?
本文旨在解决神经网络最后一个隐藏层的特征空间假设问题,提出并分析了一种满足此假设的对称性,并且验证了其在训练稳定性过程中的有效性。
- 使用相对预测编码的自监督表示学习
本文介绍了相对预测编码(RPC),一种新的对比表示学习目标,保持了训练稳定性,小批量大小敏感性和下游任务性能之间的良好平衡。RPC 的成功关键在于两个方面。首先,RPC 引入了相对参数来调整目标,使其具有界限性和低方差。第二,RPC 不包含 - ICML能量模型对比散度训练的改进
通过改进 CD 训练方法, 研究表明难以计算但可以计算出来的梯度对于避免训练不稳定性很重要,并可以使用数据增强和多尺度处理来提高模型的鲁棒性和生成质量,通过在多个基准测试中评估模型架构的稳定性,以及在图像生成,OOD 检测和合成生成等用例中 - GAN 中正则化和归一化的系统调查
本文系统描述了 GAN 训练的不同的视角和正则化与归一化的不同目标,提出了更细致的分类法,并比较了现有的主流方法在不同数据集上的表现,同时探究了这些正则化与归一化方法在最新 GAN 中的应用以及未来的研究方向。
- 使用概率比剪切和样本重新加权改进 GAN 训练
提出了一种基于变分的生成式对抗网络训练框架,通过概率裁剪和样本重新加权等技术,提升文本生成、文本风格转移和图像生成等多个任务的表现
- ICCV渐进式扩展掩膜区域学习修复
本文提出了一种基于课程风格训练的图像修复方法,通过在训练时间内逐步增加遮罩区域大小,结合 GANs 可以稳定训练并提供更好的颜色一致性和物体连续性,实验证明该方法在 MSCOCO 和 CelebA 数据集上的有效性。
- 生成对抗网络的共同进化
本研究提出 COEGAN 模型,将神经进化和协同进化技术应用于 GAN 训练中,提高了训练的稳定性和 GAN 网络结构的自动发现,解决了部分模式崩溃问题。
- CVPR正交卷积神经网络
通过对卷积内核使用双倍块 Toeplitz 矩阵表示法而不是常见的内核正交化方法,我们开发了一种有效的方法来对卷积层施加过滤器正交性。我们的正交卷积方法不需要额外的参数和计算负载,并在广泛的任务中稳定性、鲁棒性和泛化性方面优于内核正交性替代 - AAAI自适应优化的未调节热身是否足够
本研究分析 Adam 的自适应学习率,提出温升调整学习率的必要性取决于更新项的大小,进而提供一些温升规则,并表明未调整的 Adam 与 RAdam 在典型实际环境中表现基本相同,建议从业者在 Adam 中坚持使用线性温升。
- IJCAI关于在 GANs 中高效、无偏的实现 Lipschitz 连续性
本文提出一种新的方法代替传统的梯度惩罚法和谱标准化法,通过实验证明该方法可以取得成功的训练稳定性和样本质量。
- AAAI神经网络学习中复杂性管理的一种手段:模块化
提出一种模块化的神经网络设计方法,将神经网络分解为控制模块和多个实现基本操作的功能模块,以提高训练速度、训练稳定性和可维护性,并通过比较整体和模块化神经网络在排序问题上的表现来说明模块化概念,同时讨论了在模块化神经网络中出现的一些问题。
- MM非独立同分布数据分布式异步训练的全局动量梯度调度
提出了一种利用全局动量和局部平均梯度的梯度调度算法 GSGM 来处理非 IID 数据的分布式异步训练问题,并进行了一系列实验,结果表明 GSGM 算法相对于同类算法可以提高 20% 的训练稳定性并略微提高准确性,同时在稀疏数据分布的情况下可