- 成像反问题的模型适应
探究如何在不知道正向模型改变详情的情况下,使用简单的模型适应方法,使得深度神经网络在计算成像的各种逆问题中,包括去模糊、超分辨率和磁共振成像中的欠采样图像重建方面,取得实证成功。
- 基于模型的策略优化与无监督模型适应
探究建模强化学习方法中真实和模拟数据之间的分布差异所带来的性能下降问题,并提出了一种全新的模型自适应框架 AMPO,使用 Wasserstein-1 距离来实现模型适应,结果在多项连续控制测试任务中实现了最先进的性能。
- EMNLP多任务学习训练神经机器翻译的灵活深度模型
本文提出一种基于多任务学习的神经机器翻译模型,可以在推断过程中自适应不同深度配置,支持 24 种深度配置的解码,相比于传统的模型训练方法以及其他灵活深度模型训练方法(LayerDrop),本方法具有更大的灵活性和更好的性能表现。
- CVPRFew-Shot 土地覆盖分类的元学习
本文提出了一种基于概率学习算法的元学习方法,使得通过很少的样本数据,模型可以从一个地理区域适应到另一个地理区域,结合地球科学的数据多样性,利用元学习的方式优化之后可以获得更高的表现作为地科领域的一项有益的工具。
- 元学习最近进展的综述和调查
该论文回顾了元学习的概念和应用,其与深度学习的不同之处在于其能够适应于少量高维数据集,可以用于模型自适应,可不断自我完善实现高度自主的人工智能。元学习不断发展创新,不同的发展方法已有不同的应用和研究方向,进一步拓展了机器学习的应用领域。
- 自我引导适应:逐步表示对齐的领域自适应目标检测
提出了一种名为 “自主引导自适应” 的方法,该方法通过计算难度因素来提高跨域对象检测模型的鲁棒性,并表现出在大范围领域转移方面的有效性。
- AAAI元学习实现的实时物体跟踪:高效模型自适应和单次通道剪枝
本文提出了一种新颖的 meta-learning 框架,用于实时物体跟踪,其中实现了高效的模型自适应和通道修剪,并通过精心设计的跟踪模拟来训练元跟踪器,显著提高了跟踪性能。
- CVPR增加模型容量的微调:培育大脑
通过对 CNN 进行 fine-tuning,增加模型容量可以更自然的适应目标数据。同时,通过对比发现增加网络单元的增长方法在一些基准数据集中表现出色。
- ACL大规模多语种对抗性语音识别
本文介绍了对多达 100 种语言进行训练的多语言端到端语音识别模型的适应性,研究表明了目标语言和预训练语言在语音学、语音学、语言家族、地理位置和正字法等方面的相对重要性,并通过上下文无关的音素目标和语言对抗性分类目标提高了语言无关的编码器表 - ECCV基于相关滤波的联合表示与截断推断学习跟踪
该研究探讨了用于追踪的相关滤波器模型的深度学习策略。该模型通过卷积神经网络进行特征表示,通过更新器网络进行模型适应,从而取得了与最先进的追踪器相当的跟踪精度。
- ACL低预算下的语音识别迁移学习
通过模型自适应的迁移学习方法,将原本用于英语自动语音识别的 Wav2Letter 卷积神经网络适配到德语 ASR 模型的训练中,实现了在受限 GPU 内存、吞吐量和训练数据的情况下,基于消费级硬件实现更快的训练,同时减少了训练数据量,从而降 - 语音和语言处理的迁移学习
该文总结了最近关于利用深度模型在语音和语言处理中进行模型适应的一些重要研究,重点关注了利用迁移学习在跨语音和多语言任务中的表现,并展示了深度模型在跨数据分布、数据类型、模型结构和模型类型之间进行学习的潜力。
- ICLR深度神经网络中的特征学习 —— 基于语音识别任务的研究
本文研究表明,深度神经网络在语音识别任务中比浅层网络和高斯混合模型表现得更好,这是因为它们具有提取具有鲁棒性的区分性内部表示的能力。此外,我们表明 DNN 不能推广到与训练样本差异显著的测试样本,但是,如果训练数据足够代表性,DNN 的内部