- AAAI利用指数移动平均损失加权策略,减轻多任务学习中的负面转移
本文介绍了多任务学习中的负迁移问题,提出了一种通过指数移动平均进行损失平衡的技术,以达到深度学习模型的高效训练,实现了与当前最佳方法相媲美的效果。
- 通用域自适应的子公司原型对齐
该研究提出了一种基于词袋模型的框架,通过学习中层的词汇原型以及词频直方图进行分类,从而避免了负迁移问题,并在三个常见的领域自适应与开放领域自适应识别基准测试中取得了最优表现。
- ECCV使用边框偏移量进行单阶段物体检测器的无监督领域适应
本论文提出了一种基于 OADA 的新型域自适应物体检测算法,通过考虑边界框偏移的特征条件化方法,解决了特征分布因物体种类和边界框偏移值而异的问题,并在实验中取得了最新颖的性能。
- MM通用领域自适应物体检测器
我们提出了 US-DAF 方法来解决通用域自适应目标检测中的负迁移问题,提高在各种尺度下的迁移性和区分性。该方法通过两个模块实现:1)设计一个过滤机制模块来促进公共类的特征对齐并抑制私有类的干扰来克服由于类别偏移引起的负迁移。2)引入新的多 - ACL面向多领域不平衡数据的领域感知对比知识转移
本文研究了多领域不平衡学习(MIL)的情形,提出了一种名为 DCMI 的领域感知对比知识传递方法来鼓励正向传递相似领域间的共享领域知识并最小化来自不同领域的负向传递。在三个不同的数据集上评估了 DCMI 的性能,展示了不同的 MIL 方案中 - ICLRSequential Reptile: 多语言学习的任务内梯度对齐
本文提出了一种用于多语言模型的有效梯度对齐方法,以最大程度地提高知识转移并减少负面影响;在各种多任务学习和零 - shot 跨语言转移任务中得到了广泛验证并取得了优异成果。
- 多源视频领域自适应:时间注意力动态对齐
本文介绍了一种新的 Temporal Attentive Moment Alignment Network 模型,针对 Multi-Source Video Domain Adaptation 问题,通过动态对齐空间和时间特征矩阵,同时构建 - ICLRRotoGrad: 多任务学习中的梯度均一化
本文介绍了 RotoGrad 算法,该算法以整体的方式解决了负面转移问题:它同时使梯度大小和方向同质化,并确保训练收敛;研究表明,RotoGrad 在 CelebA 中的多标签分类和 NYUv2 数据集中的计算机视觉任务等复杂问题上优于竞争 - AAAI不确定性损失降低非对称多任务特征学习的负迁移
本文提出了一种解决多任务学习中负迁移问题的方法 —— 不对所有任务赋予相等的影响,而是根据任务损失和可信度进行加权处理,在两个数据集上的实验表明该方法能够有效减少负迁移,提高多任务学习的鲁棒性。
- ICMLKD3A: 通过知识蒸馏进行无监督多源去中心化域自适应
KD3A 是一种隐私保护的多源领域自适应算法,它通过对来自不同源域的模型进行知识蒸馏来实现域适应,并采用多源知识投票、共识聚焦和 BatchNorm MMD 等方法解决了常规 UMDA 方法中存在的负迁移、安全通信和数据质量等问题,同时相对 - EMNLP受限内存下高效元生存学习
本文提出一个高效的元学习框架,将终身学习的三个普遍原则相结合,以有效地训练同时避免灾难性遗忘和负迁移,并达到与多任务学习相当的性能。
- 负迁移调查
本文提出了一个系统化的对负迁移的定义及其影响因素、减少负迁移算法的调查,涵盖了安全迁移、领域相似度估计、远距离迁移和负迁移减缓四个方面,并探讨了在多任务学习、终身学习和对抗攻击等相关领域中的负迁移
- CVPR负迁移的特征及其避免
研究传输学习中不同源数据对目标任务的影响,提出了负传输的正式定义,并通过对抗网络设计了一种过滤无关源数据的技术,用于解决负传输问题,在实验中该方法能够显著提高基线方法的性能并避免负面影响。
- AAAI利用本地特征模式进行无监督领域自适应
本文介绍了一种方法,它通过学习领域不变的局部特征模式并联合对齐整体和局部特征统计量,从而进一步实现细粒度特征对齐,并在两个流行的基准数据集上将其与现有的无监督领域适应方法进行比较,证明了我们方法的优越性和对减轻负迁移的有效性。
- EMNLP多源域自适应的专家混合模型
本论文提出了一种用于多源无监督领域自适应的专家混合方法,旨在显式地捕获目标示例与不同源域之间的关系,以点到集度量为表达方式,通过元训练无监督地学习这个度量,并在情感分析和词性标注方面进行实验,证明了我们的方法始终优于多个基准线,并可以稳健地 - EMNLP从语义标记中我们能学到什么?
本研究探索使用多任务学习的效果,其中将语义标注作为三种不同自然语言处理任务(词性标注,通用依赖解析和自然语言推理)的辅助任务。相比于全神经网络共享和部分神经网络共享,我们发现 “学习共享什么” 的环境中表现良好,特别是在所有任务中表现出一致 - 深度非对称多任务特征学习
提出了 Deep-AMTFL 模型,可以通过使用不对称自编码器技术,在多任务学习中有效地学习共享的深度表示,同时有效地防止在特征共享过程中可能发生的负迁移。
- IJCAI强化学习中多位教师提供理论基础的政策建议及其在负迁移中的应用
通过多个代理老师的建议,介绍了一种自主探索和老师建议结合的算法,并量化了负面迁移可能发生的情况。
- ICLR出席、适应和转移:同一领域内多源自适应转移的注意力深度架构
本文探讨了如何在模型的新目标任务中,从源任务中迁移知识。提出了一种基于注意力机制的深度学习算法 A2T(Attend, Adapt and Transfer),它可以避免负面迁移,并能够有选择地从多个源任务中迁移知识,经实验验证,在不同的学 - 多领域语音识别的数据选择性迁移学习
本论文提出一种通过有效选择训练语音数据来克服负迁移的新技术,该方法利用基于可能性比率的子模块函数为特定目标的相关言语数据进行选择。在广泛领域数据集上进行的实验表明,该技术可以找到相关数据并限制负迁移。使用这种数据选择技术,基于 PLP 特征