Apr, 2020

DialBERT:一种用于对话分离的分层预训练模型

TL;DR提出了一种整合局部和全局语义的新模型 Dialogue BERT (DialBERT) 来解决在同一通道中同时发生多个对话的混淆问题,其中使用 BERT 在 utterance 级别捕捉每个 utterance 对信息的匹配信息,并使用 BiLSTM 聚合和合并 context 级别信息,与 BERT 相比,只增加了 3% 的参数,并取得了 12% 的 F1-Score 提升,该模型在 IBM 提出的新数据集上达到了最先进的结果,并大幅超越了先前的工作。