- Multi-CLS BERT:传统集成的高效替代方案
本文提出了 Multi-CLS BERT 方法,它是一种高效的 BERT 模型集成方法,不需要在测试时运行多个 BERT 模型,只需要运行单个 Multi-CLS BERT 模型。在 GLUE 和 SuperGLUE 数据集上,实验证明这种 - KDD注意力是否等同于解释?基于集合的量化评估
本文提出在集合学习中研究注意力机制的可解释性,通过建立多种数据模态下的合成数据集,对注意力基于重要实例的解释进行系统评估,发现注意力分布通常反映了个体实例的相对重要性,但是也存在不符合预期的情况,因此本文建议使用集成方法最小化基于注意力的误 - 单阶段动作检测 Transformer
介绍了一种新型的一阶段行为检测变压器(OADT)模型,能够同时识别视频片段的种类和时间边界,并通过多种特征组合得到最终的 21.28%动作 mAP 测试结果,位列行为检测挑战赛第一名。
- 单个预训练模型生成多样性彩票模型提升集成
本文提出了 Multi-Ticket Ensemble 方法,该方法通过针对单个预训练模型的不同子网络进行微调并将它们集成,以增加预测结果的多样性,并在一些任务上取得了优于标准集成的效果。
- 高分辨率卫星影像目标检测的集成学习技术
本研究从回顾相关整合技术出发,探讨如何利用 ensembling 技术在沙漠等复杂情况下,对高清晰度图像实现目标检测。
- ICCV使用块智能自监督神经架构搜索探索混合 CNN 转换器
本文提出了 Block-wisely Self-supervised Neural Architecture Search (BossNAS) 方法,包括定义可搜索的 CNN-transformer 混合结构搜索空间 HyTra、以及新型自 - 具有后阶段权重的神经网络
使用随机梯度下降法训练神经网络时,通过加权平均一部分训练好的参数,可以获得更好的结果,而这种方法不会增加计算成本,可在 CIFAR-10/100,ImageNet 和其他测试集上得到验证。
- 当集成较小的模型比单个大模型更高效时
本文研究使用 ensemble 方法来提高模型性能的有效性,实验结果表明,与单个模型相比,用 ensemble 组合模型在准确率和计算效率上有更好的表现,并提出 ensemble 模型作为模型推理速度和准确性之间的灵活权衡。
- 一种混合残差扩张 LSTM 与指数平滑方法的中期电量负荷预测模型
本研究提出了一种采用混合和分层深度学习模型进行中期负载预测的方法,该模型结合了指数平滑(ETS)、先进的长短期记忆(LSTM)和集成方法。模拟研究表明,该模型的性能非常高,竞争力强。
- AutoGluon-Tabular: 结构化数据稳健准确的自动机器学习
AutoGluon-Tabular 是一个开源的 AutoML 框架,仅需一行 Python 代码即可训练基于未经处理的表格数据集(如 CSV 文件)的高精度机器学习模型。与现有的 AutoML 框架主要侧重于模型 / 超参数选择不同,Au - CVPR评估可扩展的贝叶斯深度学习方法在稳健计算机视觉中的应用
该论文提出了一种深度学习可扩展的确定性和不确定性评估框架,并对两种最先进的可扩展方法进行了比较,即集成和 MC-dropout,结果表明集成方法提供更可靠和实用的不确定性估计。
- 蒙特卡罗树搜索与自动化机器学习
在 AutoML 任务中,使用基于蒙特卡罗树搜索(MCTS)的方法 Mosaic 来处理混合结构和参数昂贵的黑盒优化问题,并在基准测试中获得了统计显著的性能提升。
- EnsembleNet:多头模型的端到端优化
本研究通过提出更为简单有效的对应蒸馏架构,将单一深度神经网络转化为最优性能且规模更小的多头模型,提高机器学习模型的性能并实现端到端优化。
- 提高任务导向对话中的语义解析
本文针对基于任务导向的对话提出了基于分层表示的语义分析方法,并通过嵌入上下文、集成学习和基于语言模型的成对重新排名等三种不同的改进方式来优化模型,将可能存在的分层表示错误进行分类,并展示了三种方法分别纠正不同类型的错误,进而通过将三种技术相 - 使用迭代解码的弱监督语法错误校正
利用大量弱监督的双语数据,训练 Transformer 序列到序列模型,并采用迭代解码策略来进行语法错误纠正,最终在 CoNLL'14 基准测试上获得 F0.5 为 58.3,在 JFLEG 上获得 GLEU 为 62.4,即使不使用任何有 - EMNLP神经机器翻译集成的展开和收缩
该研究通过将集合模型解开成单个大型神经网络,并采用降维技术,旨在提高神经机器翻译的性能和运行速度。在英日翻译任务中,该网络的大小和解码速度与单个 NMT 网络相当,而性能却相当于一个 3-ensemble 系统。
- 使用多尺度深度卷积神经网络和下一步条件进行蛋白质二级结构预测
本研究通过深度学习技术,使卷积神经网络适应蛋白二级结构预测问题,达到了 70%的准确度,并尝试使用序列到序列学习和集合策略进一步提高精确度。
- 为何多个网络头胜过单独一个:训练深度神经网络的多样集成
本研究探讨了如何最佳地建立卷积神经网络的组合,比较了多种资源共享和差异性鼓励的策略,其中提出了 TreeNets 算法,最后通过端到端的训练以统一的损失函数获得比传统算法更高的准确率。