DAMSL: 基于元得分的领域不可知元学习
提出了基于元学习的领域自适应对话生成方法(DAML),该方法基于单域对话数据和元学习算法进行训练,并能够在新领域中学习出一种具有竞争力的对话系统。在模拟对话数据集上评估该方法的表现,实现了最先进的性能,该性能可推广到新任务。
Jun, 2019
研究域常规化问题及其解决方法,通过使用基于梯度的元训练和元测试过程,引入了两种补充损失来明确地规范特征空间的语义结构,从而取得了两个常见对象识别基准测试的最新效果。
Oct, 2019
我们提出了一种名为 Meta Domain Alignment Semantic Refinement (MDASR) 的方法,通过两个部分 Inter-class Similarity Alignment (ISA) 和 Unseen-class Meta Generation (UMG),在跨领域广义零样本学习中解决了信息不对称问题,有效地将冗余的语义空间与共同特征空间对齐。
Mar, 2024
本文提出了跨域 few-shot 学习的 Broader Study of Cross-Domain Few-Shot Learning (BSCD-FSL)基准,并对该基准的广泛实验表明了目前最先进的元学习方法被早期的元学习方法意外地超越,同时发现所有方法的准确性倾向于与数据集的相似性相关,这验证了该基准的价值,可指导未来的研究方向。
Dec, 2019
该论文研究了如何通过采用特征空间中的隐式语义增强来提高模型的泛化性能,并将距离度量学习(DML)的额外损失函数和无限增强的交叉熵损失的 logits 作为 DML 损失的输入特征。实验表明,该方法在 Digits-DG、PACS 和 Office-Home 三个基准测试数据集上可以实现最先进的性能水平。
Aug, 2022
本文研究了开放域泛化的问题,提出了一种基于元学习的域增强框架 (DAML),通过特征层次和标签层次上的增强,综合不同领域的知识,提高在不同领域泛化能力的性能。实验结果表明,DAML 方法在未知领域识别方面表现优越。
Apr, 2021
本文提出一种新的面向领域自适应少样本学习(DA-FSL)的解决方案,即基于领域对抗性原型网络(DAPN),该模型通过显式增强源 / 目标每类别的区分性在域自适应特征嵌入学习之前,以实现全局领域分布对齐,同时保持源 / 目标每类别的差异性从而提高 FSL 的性能。实验表明,DAPN 模型优于现有的 FSL 和 DA 模型及其简单组合。
Mar, 2020
本文提出了一种新的元 - 混合网络,提出了利用少量标记目标数据来指导模型学习的想法,通过重新提出并将混合模块集成到元学习机制中,以及通过提出新的解缠模块和域分类器来提取解缠的领域无关和领域特定特征的方法,实现了缩小域差距的目的,从而使模型能够很好地推广到目标数据集。
Jul, 2021
本文提出了一种称为 DGSML 的方法,它结合了元学习的情节训练和半监督学习,利用基于熵的伪标签方法为无标签样本分配标签,并利用新的差异性损失和对齐损失实现域不变表示的学习,进而提高领域泛化能力。实验结果表明,DGSML 优于现有领域泛化和半监督方法。
Sep, 2020
该论文提出一种基于元学习的框架来进一步增强现有领域适应算法的性能,通过在线的最短路径元学习框架改进了无监督和半监督多源领域适应技术 (DANN,MCD 和 MME),实验表明达到了多项 DA 基准的最佳效果。
Apr, 2020