本文探讨了在大规模数据集上对 transformer 模型进行语言模型的预训练,并在 QA 和 CQA 数据集上微调 BERT 模型进行答案选择任务,在 QA 数据集中观察到了最大 13.1% 的提升,在 CQA 数据集中观察到了最大 18.7% 的提升。
Nov, 2020
近年来,深度学习在解决各种自然语言处理问题上得到了大量应用。本文回顾了以 BERT 为代表的预训练模型在信息检索领域的方法,涵盖了长文档处理、语义信息整合、平衡效果与效率、术语权重预测、查询扩展和文档扩展等六个高级类别,并与基于解码器的生成式大型语言模型进行了比较,结果表明在特定任务上,经过调优的 BERT 编码器仍然具有更好的性能和更低的部署成本。最后,总结了调查的全面结果,并提出了未来研究的方向。
Feb, 2024
本文研究基于嵌入的检索模型,并探究对段落级别的预训练任务在训练强大的嵌入式 Transformer 模型上的关键作用。
Feb, 2020
使用预训练 Transformers 并扩展它们与 Adapters,我们开发了一种方法来增量训练模型处理任务序列,成功地避免了灾难性遗忘并且在多个任务上表现良好。
Mar, 2022
本文利用 BERT 模型重新排序自动语音识别中的 N 个最优假设,同时融合了任务特定的全局主题信息。实验表明,相较于循环神经网络和利用 BERT 计算伪对数似然分数的方法,本方法在 AMI 基准语料库上的有效性和可行性得到了证实。
Apr, 2021
本文主要阐述了如何将 transformers 和 self-supervised pretraining 技术应用于文本排名问题,组成了两个高级别的现代技术,即在多阶段架构中进行 reranking 的 transformer 模型和直接进行排名的密集检索技术,并对处理长文档和处理效率和效果之间的平衡这两个主题进行了分析,同时也展望了研究的未来方向。
Oct, 2020
本文研究了预先训练的 BERT 在排名任务中的表现和行为,探索了在两种排名任务中优化 BERT 的几种不同方法,并实验证明了 BERT 在问题回答焦点的段落排名任务中的强有效性,以及 BERT 作为强交互式序列到序列匹配模型的事实。
Apr, 2019
该论文提出了一种利用 BERT 表示和 learning-to-rank 模型进行文档排序的机器学习算法。在公共基准测试中,采用这种方法可以取得更好的表现。最新的实验使用 RoBERTa 和 ELECTRA 模型,取得了较之其它方法更好的排名成绩。
Apr, 2020
本研究分析了基于 BERT 的交叉编码器与传统 BM25 排名在段落检索任务中的效果,发现它们在相关性概念上存在重要的差异,旨在鼓励未来改进研究。
Apr, 2022
本研究通过对知识图谱建立的基于神经网络(包括 BERT 和 BiLSTM)的简单问题回答模型进行评估,探究在数据稀疏的情况下 BERT 模型的表现。
Jan, 2020