- 具有栈变压器的移位约减任务导向语义解析
本文探讨了基于转换系统的移进规约语义分析器,利用 Cutting-edge Transformer 架构和 In-order 算法,结合 Facebook TOP 基准中的多个领域的广泛测试,本方法在高资源和低资源情况下均超过了现有的移进规 - 翻转课堂:时间序列预测的有效教学
该研究提出了几种新的课程学习策略,包括随着训练规模增加和迭代规模概率课程,以提高序列到序列模型对混沌时间序列数据的预测准确性。通过在六个混沌时间序列数据集上的实验证明,这些新策略在 NRMSE 方面的性能表现要优于现有的教师强制和自由运行策 - RankT5:使用排序损失对 T5 进行文本排序微调
本文提出 RankT5,通过两种基于 T5 的排名模型结构来直接输出每个查询文档对的排名分数,并通过 ' 成对 ' 或' 列表 ' 排列损失进行微调以优化排名表现。实验表明,利用排名损失的所提出的模型可以在不同的公共文本排名数据集上取得实质 - COLING用于生成时序提示的自动标签序列的 Sequence-to-sequence 模型
本文提出了自动提示方法 AutoSeq,它采用自然语言提示,建议标签序列,使用集束搜索自动生成大量标签序列候选项并提出对比排序以获得最佳组合,从而在少数示例下学习方面显示了序列到序列模型的潜力,并为通用和自动提示开辟了一条道路。
- 面向知识图谱的对话问答答案表达数据集
本文介绍了一个新的数据集,用于在知识图谱上进行口头回答的对话式问答。该论文通过扩展现有的多轮对话式问答数据集,包括多个释义的口头回答,提供了新的贡献,并使用五个序列到序列模型进行了实验,同时保持语法的正确性。我们还进行了误差分析,详细说明了 - 利用因果推断进行可解释的自动程序修复
本文介绍了一种名为因果程序修复(CPR)的可解释性方法,该方法基于序列到序列模型和因果推断,可以在自动程序修复的过程中生成决策解释的相关组成部分、通过数据增广来推断这些关系、生成响应的令牌图,并解决划分问题。实验表明,CPR 可以生成合理的 - 测量神经 Seq2Seq 语义解析器的对齐偏差
本文研究了 seq2seq 模型是否能够处理简单和复杂的对齐,通过增加对齐注释来改进了 Geo 语义分析数据集,结果显示 seq2seq 模型在单调对齐的情况下表现显著更好。
- SUBS: 组合语义解析的子树替换算法
使用子树替换进行合成数据增强可显著提高模型性能,特别是在 SCAN 和 GeoQuery 上,同时在 GeoQuery 的组成分离上达到了新的 SOTA。
- 语音识别序列到序列模型中的监督式注意力
本文研究序列到序列模型中注意力机制,通过监督学习的方法对注意力权重和输出对齐进行训练,实验结果表明,对齐学习对模型性能的提升至关重要。
- 自我批评序列训练用于自动语音识别
本文提出了一种基于损失函数和词错误率的奖励函数的增强学习方法 —— 自我关键序列训练 (SCST) 来解决自动语音识别中的若干问题,取得了 8.7% 和 7.8% 的词错误率相对改进。
- 组合推理需要组合分析器
该研究系统比较了序列到序列模型和基于组合原则的模型在 COGS 语料库上处理组合泛化能力的能力,在结构泛化任务中,基于序列的模型表现接近零,而组成模型在结构泛化任务中表现接近完美,这表明结构泛化是组成泛化的关键度量,需要能够处理复杂结构的模 - 抽象摘要生成中的聚类模式学习
我们提出了一种用于摘要生成的新型聚类转换器层,该层在编码器和解码器之间生成两个显着和非显着簇,然后通过对聚类进行归一化和收缩,将它们分隔在潜空间中,从而使解码器可以更多地关注显着的上下文向量,并能够达到比现有 BART 模型更好的性能。
- EMNLP未观察到的局部结构使得组合泛化变得困难
本文研究序列到序列模型在新组合情境下(被称为混合泛化)的推广效果,提出了本地结构和测试集的难度之间的关系,并通过选择对模型最具挑战性的测试样本,增加模型的泛化性能。
- 从注册和法律文件中提取信息的序列到序列模型
本文研究使用序列到序列模型作为信息提取的替代方案,针对法律和注册文件等领域的文本,采用微调模型以在结构化格式输出的同时提取信息,学习后处理步骤以消除基于规则的方法,精简流程。我们提出了一种新的方法来对齐输出和输入文本,证明该方法是传统流程的 - 自然语言接口到 Web API 的组合泛化
本研究提出了 Okapi 数据集,该数据集包含 22,508 个问题和 9,019 个 API 调用,旨在探索自然语言到可执行 web 应用程序编程接口(NL2API)的组合泛化任务,报告了一些基于序列到序列模型的准确率及其挑战,为组合泛化 - EMNLP关于使用注意力机制分隔单词的难度
在语音领域中,基于注意力机制的序列到序列模型被用于解决诸如语音翻译或语音识别等任务中的词语分割问题。但本研究表明,仅依靠注意力机制是不稳健的,只有在训练数据包含话语标注的情况下才具有可用性。
- EMNLP有效的序列到序列对话状态跟踪
研究了如何正确使用序列到序列模型进行对话状态跟踪,从预训练目标和上下文表示格式的角度探讨了此问题,并发现遮掩跨度预测比自回归语言建模更有效。同时使用基于跨度预测的 Pegasus 预训练目标进行状态跟踪模型的预训练,并发现似乎相距很远的摘要 - 知识库问答的生成式关系链接
通过对关系链接进行生成式建模,并将目标知识库的结构化数据注入到序列生成模型中,进一步生成由参数 - 关系对组成的结构化输出,从而大幅提高与已有方法的比较结果,同时使用更简单的模型,可轻松适应不同的知识库。
- ACL科学文献检索中的关键词生成
本文证明了 Sequence-to-sequence 模型可以显著提高文档检索性能,并介绍了一种新的外在评估框架,以更好地理解生成关键词模型的局限性,包括文档补充中所遇到的困难和模型在不同领域中的一般化问题。
- ACLOne2Set:生成关键词集合的多样性关键词生成模型
本研究提出一种新的训练模式 One2Set 及利用对一组特定控制码的应用实现并行生成关键词集的新型模型,同时通过二分图匹配的 $k$-step 目标分配机制增加关键词生成的多样性和降低重复率,实验结果表明本方法显著优于现有最优方法。