Apr, 2020
DialBERT:一种用于对话分离的分层预训练模型
DialBERT: A Hierarchical Pre-Trained Model for Conversation
Disentanglement
TL;DR提出了一种整合局部和全局语义的新模型Dialogue BERT(DialBERT)来解决在同一通道中同时发生多个对话的混淆问题,其中使用BERT在utterance级别捕捉每个utterance对信息的匹配信息,并使用BiLSTM聚合和合并context级别信息,与BERT相比,只增加了3%的参数,并取得了12%的F1-Score提升,该模型在IBM提出的新数据集上达到了最先进的结果,并大幅超越了先前的工作。