Aug, 2019

应答选择中基于 BERT 的有效域自适应后训练方法

TL;DR本研究基于双向编码器转换器 (BERT) 作为强大的预训练语言模型,针对多轮检索式对话系统中的响应选择问题,提出了一种高效的基于领域特定语料库的后训练方法,发现后训练能帮助模型训练出具有更好上下文表示能力的单词,实验结果显示该方法在两个回答选择基准数据集上达到了新的最优状态(Ubuntu Corpus V1,Advising Corpus),R@1 性能提高了 5.9%和 6%。