基于文本到文本模型的零样本领域转移合成
本研究提出一种基于 Zero-Shot Adaptive Transfer 方法的领域自适应对话代理模型,通过利用槽位描述信息实现可重用概念在领域之间的迁移,并避免了显式概念对齐的训练复杂度,实验结果表明此模型在多达 10 个领域的数据集上性能显著优于之前的最优系统,特别在低数据情况下表现更出色。
Aug, 2018
使用有标记的源域数据进行监督预训练,来降低特定领域下游任务的样本复杂性,相结合的任务转移和领域适应来微调无标签的目标任务的预训练模型,并在 4 个领域的特定领域阅读理解任务中超越领域自适应预训练模型的零 - shot 表现。
Jun, 2022
本文提出了一种采用零样本迁移学习的技术,通过从域本体和抽象对话模型中合成所有域内训练数据,对多域对话状态跟踪进行了改进,表明对话状态跟踪中的数据增强可以提高 TRADE 模型和基于 BERT 的 SUMBT 模型在 MultiWOZ2.1 数据集上零样本学习的准确性,并表明只用合成的域内数据对 SUMBT 模型进行训练,可以达到全局数据集训练的 2/3 的准确度,文章的方法还提高了领域之间的平均零样本学习水平达到 21%
May, 2020
研究了 140 个英文社区问答论坛上自我监督训练的文本匹配模型的零样本转移能力,并调查了其在九个答案选择和问题相似性任务的模型表现,提出了结合自我监督与监督多任务学习的最佳零样本转移模型,该模型在所有九个任务上均实现了最新的状态。
Oct, 2020
本文利用预处理语言模型进行通用领域训练,使用由维基百科构建的 WikiFluent 数据集,在 WebNLG 和 E2E 数据集上进行实验证明,使用单个项目描述生成 D2T 是可行的,且可以从 RDF 三元组中完成零 - shot D2T 生成。
Mar, 2022
本文研究使用预训练语言模型的转移学习、领域特定术语扩展词汇表以及利用未标记数据结构创造辅助合成任务等方法,在 IT 领域的三个任务中,采用逐步应用的策略在预先训练的 Roberta-large LM 上显示出显着的性能提升。
Oct, 2020
我们将零样本对话状态跟踪转化为少样本对话状态跟踪,通过联合和自我训练方法利用目标域中的无标签数据。该方法通过辅助任务生成槽类型作为主要任务的逆提示,在联合训练期间创建槽值。这两个任务之间的循环一致性使得能够生成和选择未知目标域中的高质量样本,以进行后续的微调。此方法还有助于自动标签创建,从而优化对话状态跟踪模型的训练和微调。我们在零样本场景中的大型语言模型上展示了该方法的有效性,在 MultiWOZ 的所有领域中,平均联合目标准确率提高了 8%。
Oct, 2023
该研究提出了一种模型,即使没有针对该对象的训练数据,也能在图像中识别对象,并从无监督的大型文本语料库中获取对未知类别的必要知识,在语言中的分布式信息可以被视为理解物体外观的语义基础。
Jan, 2013
通过引入 ZeroG,一种新的框架,我们扩展了这种零样本迁移学习范式到图领域,以实现数据集间的泛化,减少特征不对齐、标签空间不匹配和负迁移等固有挑战,并通过使用语言模型对节点属性和类别语义进行编码,以确保数据集间的一致特征维度,并通过基于提示的子图采样模块丰富提取的子图的语义信息和结构信息,进一步采用轻量级微调策略降低过拟合风险,并保持语言模型的零样本学习能力。结果显示我们的模型在实现显著的跨数据集零样本迁移能力方面非常有效,为图基础模型的发展开辟了新的路径。特别地,ZeroG 作为一种零样本方法,甚至能在 Pubmed 上实现可与半监督学习相媲美的结果。
Feb, 2024
本文探讨使用统计量来衡量不同任务间的相似性,从而减少 fine-tuning 的测试所需的任务对数量,并在 58 个任务和 6600 多个任务对组合上实验证明其可以提高任务的效率并显著降低运行时间。
Feb, 2023