- EMNLPCGoDial:中文目标导向对话评估的大规模基准
提出了 CGoDial 多领域目标导向对话评估新挑战性和综合性中文基准,包括三个使用不同知识来源的数据集(基于插槽的对话、基于流的对话和基于检索的对话),实验设置中考虑了训练集和测试集的不同组合,其中包括使用真实会话数据或通过众包添加口语特 - 基于关键词权重排名的多领域文本分类课程学习方法
本文提出了一种基于关键词权重排序的课程学习策略来改善多域文本分类模型的性能,该方法在对抗训练的基础上,并且在 Amazon 评论和 FDU-MTL 数据集上的实验结果表明,它能有效地提高多领域文本分类模型的性能,并优于现有的方法。
- 多域多语言神经机器翻译中,能否跨语言进行域传递?
本文讨论了如何在多领域和多语言神经机器翻译 (MDML-NMT) 中跨语言传输领域信息,以提高零样本翻译性能和帮助域缺失的多领域 NMT 的泛化。通过组合多语言和多领域 NMT 及添加编码器目标语言标签等有效策略,实现了学习到有针对性的表示 - 多领域对话状态跟踪中考虑行为的槽 - 值预测
该研究针对对话系统中特定目标和本体的对话状态跟踪模型的可扩展性问题,提出了一种将对话行为融入到对话模型设计中,利用机器阅读理解预测跨域对话状态的方法,并在实验结果中表现出较高的准确度,为未来的面向任务的对话系统提供了对话状态设计的指导。
- 基于记忆引导的多视角多域假新闻检测
本文提出了一种名为 M$^3$FEND 的框架,通过从多视角建模内容,包括语义、情感和风格等,使用领域记忆库显著改进了领域信息,适应性地聚合多个视角的判别性信息,提高了跨领域假新闻检测的成功率。
- MiDAS: 多维度整合领域自适应监督的假新闻检测
本研究提出一种名为 MiDAS 的多领域自适应方法,该方法结合多个预先训练和微调模型,并使用局部 Lipschitz 光滑性来评估每个模型对新数据的相关性以检测假新闻。MiDAS 在针对 9 个取自不同领域和模态的假新闻数据集的泛化方面取得 - ECCV多域长尾识别、不平衡域泛化及其它
研究多领域长尾识别(MDLT)的任务,该任务学习来自多领域的不平衡数据,同时处理标签不平衡、领域漂移和不同领域间标签分布的差异,并推广到所有领域 - 类别对。提出了 BoDA 这一理论上基础的学习策略,它跟踪 MDLT 中的传递性统计的上限 - ACLDS2: 对话总结作为对话状态的表示,基于模板的少样本对话状态跟踪
本文提出基于语言模型的少样本对话状态追踪方法,将对话状态追踪问题重新表述为对话摘要问题,并使用合成的对话摘要训练模型。经实验证明,该方法在跨领域和多领域设置下的效果都优于以往方法,并提升训练和推理速度。
- MACRONYM:多语言和多领域首字母缩写词提取的大规模数据集
该研究论文主要研究了缩写词的提取及其在自然语言处理应用中的重要性,进一步提出了一种用于多语言和多领域缩写提取的新数据集,并通过实验证明不同语言和不同学习设置下的缩写提取存在独特的挑战和必要的进一步研究。
- 具有延迟预测的多域虚拟网络嵌入算法
本文提出了一种基于延迟预测的多域虚拟网络嵌入算法 (DP-VNE)。通过预估虚拟请求的延迟,选取候选物理节点,然后使用粒子群优化算法来优化映射过程,从而降低系统延迟。仿真结果表明,相比其他三种高级算法,本文提出的算法能够显著降低系统延迟同时 - KDD基于数据效率的形式文档信息提取
本文介绍了如何使用少量标记数据和被标记语料库进行转移学习,以实现在规模上自动从表单状文件提取信息。
- AAAIMDD-Eval:基于增强数据的自训练多领域对话评估
提出了 MDD-Eval 框架,通过对话内评价与跨领域自学得到多领域评价能力,从而使得相较于现有自动对话评价指标,其在 6 个评价基准测试中可以取得 7% 的平均 Spearman 相关性分数的显著提高。
- MM基于披萨偏好推荐汉堡:用专家乘积解决数据稀疏问题
本文提出了一种利用多领域用户项交互来处理数据稀疏性和创建推荐的方法,并构建了 POE 架构用于跨领域情形,实现了普适的个性化推荐,实验证明,这种基于多领域深度学习的方法取得了优异的推荐效果。
- ACLQMSum: 基于查询的多领域会议摘要的新基准
本研究定义了一种基于查询的多领域会议摘要任务,并介绍了 QMSum 作为此任务的新基准,其包括来自 232 个会议的 1,808 个查询摘要对。同时,本研究研究了一种查找 - 摘要方法,并在该任务上评估了一组强大的摘要基线。实验结果表明,Q - ACLWikiAsp:一个用于多领域方面的摘要的数据集
提出了一个新的多领域、开放领域的基于方面的摘要数据集 “WikiAsp”,该数据集通过使用 20 个不同领域的维基百科文章并使用每篇文章的标题和边界作为方面标注的代理。研究结果表明现有的摘要模型在此情况下面临的关键挑战,具体包括引用来源的代 - 多领域语言模型高效预训练的实证研究
通过在多个领域进行预训练和弹性权重整合,可以提高通用和医学任务的性能。
- 适用于转换器 ASR 的可适应多域语言模型
提出了基于适配器的多域 Transformer 语言模型,在只有小型适配器及其相关层的情况下,该模型可以进行多域自适应,并可以重复使用全细调的语言模型,从而可有效减少模型维护成本。使用这种方法,观察到具有适配器的通用 LM 在词错误率方面优 - Few-Shot 图像分类通用表示变换层
该论文提出了一种称为 Universal Representation Transformer (URT) 的方法,对多域 few-shot 图像分类进行元学习,通过动态重新加权和组合最适合的域特定表示来实现 few-shot 分类,该方法 - 基于模式的对话状态追踪挑战赛的 SPPD 系统
本文提出了一种基于 BERT 的零 - shot 自然语言理解模型,用于实现多领域会话状态跟踪,实验结果显示该模型较基线系统具有显著改进。
- ACLWiC-TSV: 上下文中目标义项验证任务的评估基准
介绍了 WiC-TSV—— 一个新的多领域评估基准,用于词义消歧的目标语义检验框架。利用最新的语言模型在数据集上设置基线性能,并且实验结果表明即使这些模型可以在任务上表现得相当不错,但是在跨领域设置中机器和人类性能之间仍然存在差距。