本文使用预训练的 BERT 模型来处理表格检索任务,研究如何编码表格内容以及如何将其他文献中的特征与 BERT 模型联合训练,实验表明这一方法在公共数据集上表现卓越。
May, 2020
近年来,深度学习在解决各种自然语言处理问题上得到了大量应用。本文回顾了以 BERT 为代表的预训练模型在信息检索领域的方法,涵盖了长文档处理、语义信息整合、平衡效果与效率、术语权重预测、查询扩展和文档扩展等六个高级类别,并与基于解码器的生成式大型语言模型进行了比较,结果表明在特定任务上,经过调优的 BERT 编码器仍然具有更好的性能和更低的部署成本。最后,总结了调查的全面结果,并提出了未来研究的方向。
Feb, 2024
本文介绍了神经信息检索模型以及基础概念和直觉,包括传统的学习排序模型的学习技术和基于神经网路以原始文本学习语言表示的自然语言处理方法。同时,也简单介绍了浅层和深度的神经网络以及目前的深度神经网络检索模型,并探讨了神经信息检索未来的发展方向。
May, 2017
使用 BERT 模型在多语言语料中训练跨语言信息检索模型,实验结果显示该模型在英语查询与立陶宛语文档的信息检索任务中优于其他竞争模型
Apr, 2020
本研究开发了一种新型的神经主题模型,结合了来自预先训练的语言模型 BERT 的上下文化单词嵌入,无需使用任何词袋信息即可推断文档的主题分布,实验表明该模型在文档分类和主题连贯度指标方面优于现有主题模型,并可处理来自新到达文档的未见单词。
May, 2023
该研究使用一种名为 ABNIRML 的新框架进行分析,进一步探讨了预训练上下文化语言模型在信息检索中的有效性及其潜在的偏差和限制,证明了最近的神经排序模型有与之前排序模型本质的不同特征,并可能受到单词和句子顺序、语态和其他文档变量的影响。
Nov, 2020
本研究实验证明在 BERT 模型中加入基于图形的上下文信息会提高模型性能,并在 Pubmed 数据集上取得了 8.51%到 7.96% 的错误率减少,同时仅增加 1.6%的参数。
通过对知识图谱进行多方位的知识语境注入,基于 BERT 的语言模型可以在微调期间解决概念和模糊实体的语境问题,从而在 GLUE 测试集的多个子任务中,KI-BERT-base 模型能够显著优于以 ERNIE、SenseBERT 和 BERT_CS 为代表的最新知识感知 BERT 变体,甚至比 BERT-large 模型在 SciTail 和 QQP、QNLI、MNLI 等领域特定任务方面表现更佳。
Apr, 2021
本文提出一种基于预训练语言模型 (BERT) 的方法,能够直接利用所有句子中的所有单词的上下文信息进行文档级理解的任务,且在四个数据集中取得了最先进的结果。
Sep, 2019
本论文研究了利用上下文学习和预训练语言表示模型来解决过程描述文档中信息提取的问题,与原生 GPT-3 模型一起,通过注入概念定义和少量样本进行了两个上下文学习操作。研究结果显示了该方法的潜力和上下文学习的有用性,同时也指出了控制流关系所带来的挑战。
Mar, 2022