句子嵌入模型中的表示偏差
通过大规模数据集 DAIS,本文研究谓语偏向性对人类习惯表述的影响,探究神经语言模型对人类偏好的表达能力,结果表明基于 transformer 架构较基于循环神经网络较佳,并具有更好的语法信息融合表达能力。
Oct, 2020
本文中,我们描述了几种针对不同社区的刻板印象,这些社区存在于受欢迎的句子表示模型(包括预训练的下个句子预测和对比句子表示模型)中。通过比较基于文本相似性的强预训练模型与学习语言逻辑的文本蕴涵模型,我们得出结论:与显式去偏见流程相比,使用文本蕴涵显式逻辑学习可以显著减少偏见并提高社区的识别。
Mar, 2023
本文研究了 BART 和 XLM-R 两种目前最先进的基于 transformers 的任务导向语义解析模型在单语和多语境下的表现,实验证明它们不仅在消歧意图 / 槽方面有困难,而且在生成句法上有效的语义框架方面也遇到了问题,主要原因是在把句子片段抽取到框架中时存在歧义,导致语法无效。不过,该模型同时也为是否正确或不正确的语义框架给出了充足的指标,使得该模型可以轻松部署在生产环境中。
May, 2021
本论文旨在探讨如何通过加入结构偏置来提高 Transformer 的翻译能力,并且通过 TP-Transformer 和形态结构的分割两种方式来实现。实验表明,这两种方法都能使 Transformer 在翻译土耳其语和伊努伊特语等形态丰富的语言时表现更好,但要考虑数据集的大小。总的来说,结构编码方法可以使 Transformer 更加高效,在少量数据的情况下表现更好。
Aug, 2022
本文提出了一种基于 Current Transformer 的 NLU 的自校正框架,该框架可以减少来自数据集偏见的干扰,从而提高对 Out of Distribution 数据的处理能力。
Jun, 2023
通过探索 Transformer 模型的设计空间,我们发现一些设计上的决策对该模型的归纳偏差有很大的影响。我们发现这些决策可以显著地提高 Transformer 模型的组合泛化能力,并在各种复合任务中实现了比文献报道的更好的泛化结果,并在语义分析组合泛化基准(COGS)和字符串编辑操作组合基准(PCFG)中实现了最先进的结果。
Aug, 2021
本文研究基于双向编码器表示的变换器的模型,探讨了如何使用 BERT-based 分类技术对美国最高法院案件或最高法院数据库 (SCDB) 进行分类,文章实验对 15 个分类和 279 个分类任务分别进行了比较,最好的结果分别为 80% 和 60%。
Apr, 2023
本论文研究了通过将句法信息与深度学习模型相结合,提高自然语言处理任务的性能表现,对多特征的语法 - Transformer 进行了测试,发现在完整数据集和部分数据集中,BLEU 得分都有明显提升,同时,在 GLUE 基准测试中,语法嵌入的 BERT 微调在几个下游任务中表现优于基线。
Nov, 2019
利用转换模型的句子嵌入可以编码大量语言信息,探索了这些嵌入是否包含可以分离的重叠信息层,并且可以检测特定类型的信息,如块和它们的结构和语义属性信息。通过使用包含已知块结构的句子数据集和两个语言智能数据集,解决依赖于检测块及其语法数量和语义角色的任务,并通过对任务表现和学习过程中构建的内部表示的分析,证明了这一点。
Jun, 2024
本研究分析了 SNLI 和 MultiNLI 数据集中逻辑关系的数据偏差程度及其影响,并提出一种简单的方法来降低数据集中的数据偏差。我们发现仅对 SNLI 数据集中的假设进行分类,就能产生 64% 的准确率。
Jun, 2019