- 使用图神经网络从实时网络配置中学习蜂窝网络覆盖
提出一种新的基于图形和状态转移网络的训练框架,它能够对细胞的配置进行高质量估计,适用于多个关键绩效指标的估计,同时具有良好的预测性能。
- MM利用反馈的实体视觉导航鲁棒性
本文提出了一个培训框架,用于训练代理在物体目标导航任务中主动寻求帮助,并提供有反馈的目标物体在其视野中的位置。为了使代理更加鲁棒,该培训课程包括具有和没有反馈的情节混合。结果表明,即使没有反馈,在这个方法的帮助下,代理的表现也得到了提高。
- MMPiPAD: 基于 GPU 的流水线和并行动态图神经网络训练
提出了 PiPAD,一种基于管道和并行设计的动态图神经网络 (DGNNs) 训练框架,用于在 GPU 上进行端到端性能优化。在各种数据集上的评估表明,PiPAD 在三种代表性模型上实现了 1.22 倍 - 9.57 倍的超越最先进的 DGN - AAAI通过解决方案多样性泛化数学应用题求解器
本研究提出了一种新的数学词问题求解器训练框架,通过引入解决方案缓冲区和解决方案鉴别器,设计了一种能够鼓励训练数据多样性的缓冲区,并控制缓冲区解决方案的质量,从而有效地提高了各种 Seq2Seq MWP 求解器的性能。
- TAOTF: 一种在深度神经网络中使用的两阶段近似正交训练框架
本文提出了一种新的两阶段近似正交训练框架(TAOTF),通过在深度神经网络模型中应用软正交约束来解决噪声数据情况下模型的鲁棒性问题,并在自然图像和医学图像数据集上进行评估表明,我们的方法实现了比现有方法更稳定和优越的性能。
- AAAI剥离洋葱:分层减少数据冗余以提高 Vision Transformer 训练效率
本文提出了一种从三个稀疏角度出发的训练框架 Tri-Level E-ViT,探索了数据冗余的减少,并证明了该框架不仅可以加速各种 ViT 架构的训练,还可以提高准确性。
- 基于模拟的并行训练
本文介绍一种训练框架,可对机器学习进行科学计算,并通过缓存数据来减轻同时生成数据的时间延迟。实验表明,该框架在多参数 Lorenz 吸引子的测试中成功缓解了数据偏差,从而可以更好地捕捉系统的复杂混沌动态。
- COLING通过区分表面相似的实例来克服视觉问答中的语言先验
本文提出了一种新的视觉问答框架,通过定义相同问题类型但回答不同的训练实例作为 “表面相似的实例”,并在此基础上构建一个区分模块,达到了超越语言先验的最先进性能。
- CoNT: 对比神经文本生成
本文提出了一种新的对比学习框架 CoNT,它从对比示例、对比损失和解码策略三个方面解决了对比学习在生成任务中使用的瓶颈问题,实验结果表明 CoNT 在机器翻译、数据摘要、代码注释生成等十个基准测试中都表现出优异的表现,特别是在摘要生成任务上 - 混合不变训练下的单声道语音增强技术用于自动识别真实嘈杂语音
本文提出了一个改进的训练框架,用于训练单声道神经增强模型,以提高鲁棒语音识别的性能。该框架利用现有混合不变训练准则,扩展了未配对的干净语音和真实嘈杂数据,提高了从真实嘈杂语音中分离出来的语音质量,并通过处理和未处理信号的混合来缓解处理伪影。 - 运用语篇关系进行距离微调以进行立场分类
本论文提出了一种新的方法,通过提取特定的语篇关系信息从原始文本中提取带有银标签的数据,以微调用于态度分类的模型并提出了一个 3 阶段的训练框架,实现了从最嘈杂的数据到最少噪音的数据不断降噪。实验结果表明,自动注释的数据集以及 3 阶段训练有 - 面向鲁棒语音识别的语音增强和噪音感知网络
提出了一个基于噪声感知的训练框架,将增强语音引入到声学模型的多条件训练中,通过两个级联的神经结构来优化增强语音和语音识别,并取得了较好的实验结果。
- ACL基于置信度的双向全局上下文感知训练框架用于神经机器翻译
本研究提出一个训练框架 —— 基于置信度的双向全局上下文感知(CBBGCA),用于在神经机器翻译(NMT)中有效地利用双向全局上下文。通过对 CBBGCA 模型的多任务联合训练和基于置信度的知识蒸馏,本研究得出,该模型在三个大型翻译数据集上 - 训练和调整 RNN 转录自动语音识别模型的文本输入整合
本文提出了一种新的文本表示和训练框架,用于对端到端自动语音识别模型进行内部语言模型(LM)的有效适应,仅使用新域的文本数据。实验表明这种方法能够显著提高模型的准确性并适用于不同的数据集。
- EMNLPBFClass: 无后门的文本分类框架
本文提出了 BFClass:一个高效的、无后门的文本分类训练框架,包括触发器识别及毒化检测等模块,能够识别所有的触发器并极少产生误报的情况下消除 95%的毒化训练样本,同时达到了与基于良性训练数据训练的模型几乎相同的性能表现。
- KDD多源噪声模拟与难例挖掘用于文本分类的鲁棒性学习
本研究提出了一种新的训练框架,通过直接模拟自然 OCR 噪声并从大量的模拟样本中迭代挖掘难样本来提高模型性能,实验表明该框架大大提高了预训练模型的鲁棒性,可以在实际场景下极大地促进 NLP 模型的应用。
- ICML关于感知有损压缩:感知重构成本及最优训练框架
该研究提出了一种全新的训练框架,使用生成对抗网络(GAN)和优化过的编码器来实现在完美感知质量下给定比特率的最低均方误差(MSE)畸变。
- AAAI双向蒸馏的多视角特征表示在对话生成中的应用
本文提出一种基于知识蒸馏的对话模型训练框架,通过分组多任务学习、多视角特征蒸馏和双向蒸馏等策略,找到多数据集共性知识以提高模型泛化性能。实验结果表明该框架可以有效地提高模型的泛化性能,而不影响训练效率。
- AAAI追溯式学习
该研究提出了一种学习回顾的训练框架,可以利用过去的学习信息指导神经网络的训练,提高准确性、校准性和稳健性,并在多个基准数据集上进行了广泛的实验以证明其优越性。
- ICML使用多头辅助网络的深度贝叶斯回归的不确定性感知 (UNA) 基础
本研究提出了一种训练框架,可以有效地捕捉神经线性模型中的预测不确定性,以适用于风险敏感的应用场景。该框架可以学习数据的特征并进行贝叶斯线性回归,从而生成预测不确定性。