无监督分析的层次 Transformer
本研究使用 Transformer-based pre-trained language models 并提出一种全新的无监督分析方法,通过引入一个高排名头部的集合,用于从语法角度分析 PLMs 的学习知识,从而提取出 PLMs 的句法知识,并用这些知识来训练神经 PCFG,最终与人类注释的语法树库得到比较。
Oct, 2020
本文提出了一种使用 transformer 自注意力机制进行无监督文本摘要提取的方法,并在 CNN / DailyMail 和 New York Times 数据集上证明其优于现有的无监督模型,且不太依赖于句子位置。
Oct, 2020
我们介绍了一种利用循环神经网络语法编码器和新颖的注意力递归神经网络解码器的模型,利用策略梯度强化学习来在源语言和目标语言上诱导无监督树结构,从而训练出在字符级数据集中相当不错的分割和浅层解析表现,接近注意力基准。
Sep, 2017
使用自注意力机制来诱导目标树结构,从而产生更好的语言模型,更可解释的注意力分数,并达到实验效果的 Transformer 变种 (Tree Transformer) 的提出。
Sep, 2019
本论文研究了在不需要大量预训练的情况下,以结构为导向的指导是否能够使 Transformer 语言模型学习更接近人类的系统语言泛化。通过在 BLLIP 数据集上对两种新模型进行实验,研究者发现引入结构性解析的辅助训练能够提高 Transformer 语言模型在句法推理上的泛化能力。
Jul, 2021
透过对自然语言数据训练的 Transformer 模型的研究和实验证明,具备语言建模目标的 Transformer 模型更容易学习和推广层次结构,并在处理无法预见的句法结构的句子时表现优异。
Apr, 2024
本文使用 Shen 等人 (2018) 的句法分析算法来恢复基于 “句法深度” 代理的短语结构树,并使用常规 LSTM 语言模型提供的代理进行比较,发现偏向于右分支结构的解析算法可以夸大语言模型的表现能力。
Sep, 2019
通过提出的 HiStruct+ 模型,将 Transformer-based language models 中的层级结构信息显式注入到提取式文摘模型中,提高了 PubMed 和 arXiv 数据集中提取式文摘的 ROUGEs 指标,实验发现:数据集对模型效果的影响是关键因素,数据集中的明显层级结构可以取得更大的性能提升,而在模型的表现中,层级位置信息的贡献最大。
Mar, 2022
该研究提出了一种基于语法规则的非监督句法树生成方法,利用了语言的通用语法知识,采用强化学习和自编码器等技术,在 MNLI 和 WSJ 两个基准数据集上实现了最好的结果。
May, 2021
本文研究了神经序列和转换语言模型的层次结构泛化能力,发现通过长时间训练,模型能够学习到层次结构的一般性,对模型深度的分析证明浅层和深层不如中等深度的模型性能优秀。此发现证实了香草珂朵莉模型能够发现和使用自然语言中的层次结构。
May, 2023