BriefGPT.xyz
Ask
alpha
关键词
hierarchical attention bilstm network
搜索结果 - 1
ACL
神经主题分割中上下文建模的改进
本文提出了一个基于层级注意力双向 LSTM 网络的主题分割器,通过添加相干性相关的辅助任务和受限制自注意力来更好地建模上下文,从而超过了 SOTA 方法,并在领域转移设置中证明了其鲁棒性和在多语言场景中的有效性。
PDF
4 years ago
Prev
Next