EMNLPOct, 2020
句子编码器预训练的交叉思维
Cross-Thought for Sentence Encoder Pre-training
Shuohang Wang, Yuwei Fang, Siqi Sun, Zhe Gan, Yu Cheng...
TL;DR这篇论文提出了 Cross-Thought 方法用以预训练序列编码器,通过大规模的短序列训练 Transformer-based 序列编码器来自动选择对预测掩码词最有用的信息,用于大规模自然语言处理任务,如问答,文本推断等,实验结果表明,所提出的方法比传统基于连续句子信号的最新编码器以及传统掩码语言模型基线更加优秀,并打破了 HotpotQA (full-wiki setting) 的最新记录,取得了新的最高水平的中间信息检索表现。