ReasonBERT: 远监督下预训练推理模型
本文描述了 BERT 在常识推理任务中的简单再现,展示了 BERT 生成的关注力可以被直接用于 Pronoun Disambiguation Problem 和 Winograd Schema Challenge 这些任务,提出的基于关注力的常识推理方法在各种数据集上表现出色,超过了之前报道的最先进水平。
May, 2019
本文提出了一种名为 BERTRL 的解决方案,该方案使用预训练语言模型和 fine-tuning,通过将关系实例及其可能的推理路径作为训练样本,支持归纳学习并在 15 个应用中超越现有技术。
Mar, 2021
使用句法分析和预先训练的词嵌入技术,在缺乏任何形式监督的情况下,提取少量精确关系,用于注释更大的语料库,并在生物医学领域的四个数据集上通过微调预先训练的 BERT 模型进行关系抽取实验表明,与无监督关系提取的两个简单的基线相比,我们的方法显著优于两个简单的基线,即使不使用任何监督,也获得了三个数据集中的最先进结果之一;更重要的是,我们证明了使用噪声数据可以成功地对大型预先训练的语言模型进行微调,而不是依赖于黄金数据进行微调。
Nov, 2019
该研究证明,通过使用既有的预训练模型中的隐含知识以及显式的自然语言陈述,神经网络可以可靠地执行系统性推理任务,这为开放领域的系统不断与用户交互、持续改进的路径铺平了道路。
Jun, 2020
本文介绍了利用预训练语言模型 GPT 进行远程监督关系抽取,通过 fine-tuning 在 NYT10 数据集上实现了更多种类关系的高准确率预测,AUC 分数达到了 0.422,并且在高召回率水平下表现尤为出色。
Jun, 2019
本文使用预训练的 BERT 模型来处理表格检索任务,研究如何编码表格内容以及如何将其他文献中的特征与 BERT 模型联合训练,实验表明这一方法在公共数据集上表现卓越。
May, 2020
通过利用 ConceptNet 中的结构化知识,构造逻辑形式并生成常识性逻辑推理的多项选择题进行训练,我们提出了一种简单而有效的方法来教授预训练模型常识性推理,实验结果表明,这种训练可以使预训练模型在需要常识性推理的任务上表现稳定提升,特别是在少样本学习设置下。
Sep, 2019
本文介绍了一种轻量级的基于注意力机制的模型 SpERT,通过对 BERT 嵌入进行实体识别和过滤,以及基于标记的上下文表示进行关系分类,结合单 BERT 传递的高效负样例抽取方法,在多个数据集上取得了高于先前工作最高达 2.6% F1-score 的性能表现。
Sep, 2019