问题回答的跨度选择预训练
本论文提出了 SpanBERT 预训练方法,扩展了 BERT 的掩蔽方式和训练方式,使其在跨度选择和指代消解等任务中表现出比 BERT 和基线更优秀的性能,包括在 SQuAD、OntoNotes 和 TACRED 等各种基准测试上都取得了更好的结果。
Jul, 2019
在几个问答基准测试中,经过 Fine-Tuning 后,预训练模型已经达到了与人类相当的水平。然而我们研究了更为现实的少样本情况,发现标准的模型表现不佳,由此突出了当前预训练目标与问答之间的差异。为此我们提出了一种新的问答针对性预训练方案:Recurring Span Selection,该方案非常适合处理具有多个重复区域的段落,并在提供的数据量很少的情况下在 SQuAD 的基准测试中取得了令人惊讶的高成绩(例如仅使用 128 个训练示例时即可获得 72.7 F1 的成绩),同时保持了在高资源设置下具有相当的性能。
Jan, 2021
本文探讨了在大规模数据集上对 transformer 模型进行语言模型的预训练,并在 QA 和 CQA 数据集上微调 BERT 模型进行答案选择任务,在 QA 数据集中观察到了最大 13.1% 的提升,在 CQA 数据集中观察到了最大 18.7% 的提升。
Nov, 2020
本文探讨了 BERT 预训练在 NSP 任务上的影响以及其他 14 种可能的辅助预训练任务,并研究了将多个任务包含到预训练中的不同方法。实验证明,使用多种任务的多任务预训练框架比单个辅助任务更好地提高了结果表现,并在 GLUE 基准测试中打败了 BERT Base。
Oct, 2020
通过引入时间跨度遮蔽(TSM)中间训练,我们在已有的 Salient Span Masking(SSM)的基础上进行了研究,发现 SSM 单独对三项时间任务的下游性能有所提高,可以通过增加 TSM 任务进一步提高平均 0.29 分,并自主探究了 SSM 的知识来源与对模型性能的影响。
Mar, 2023
本文利用变压器模型和深度神经网络提出了一种有效的自动生成问题的方法,并通过 SQuAD 1.1 数据集实验证明所提出的模型可以产生语义正确且多样化的问题,并且在半监督学习中表现优异,为小数据领域内的问题生成提供了强大的支持。
Nov, 2019
本研究提出了一种新的预训练双向 Transformer 模型的方法,通过解决一种词重建任务来提高语言理解问题的性能,实验表明,在 GLUE 和 NER 以及组分分析基准测试上获得了大幅度的性能提高,模型的各种因素对于有效的预训练起到了积极的贡献。
Mar, 2019
在自然语言处理中,通过将共指信息作为辅助监督注入到目前现有的预训练模型中,能够提升模型在需要进行复杂和长距离推理的任务中的表现,从而超过目前最大的 GPT-2 模型,同时仅含有一小部分的参数。
Nov, 2019