快速且准确的神经话语分割
本文提出了一种基于注意力机制的双向 LSTM 模型,使用卷积神经网络学习句子嵌入,利用上下文信息预测文本分段,相比现有的竞争基准方法,在三个基准数据集上的 WinDiff 分数提高了约 7%。
Aug, 2018
本研究提出三种基于 Transformer 的架构,并在三个标准数据集上进行全面比较,建立了一个新的最先进水平,在所有情况下特别是大幅减少了误差率。研究还分析了模型大小,并发现能够构建具有更少参数但保持良好性能的模型,从而促进了实际应用。
Apr, 2020
使用神经框架和指针网络,基于 Rhetorical Structure Theory (RST) 的句子级别的语篇分析提出了一种高效的分析方法。基于分段器和分析器的性能表现显示出此方法具有优势且逼近人类认知水平。
May, 2019
本研究提出了一个基于深度学习的模型,通过序列标注和注意力机制,对科学文献中实验叙述中的结构进行识别,并比较了不同模型的效果和可能的应用。
Feb, 2017
该研究通过使用循环卷积神经网络与韵律、词性等特征及单词嵌入,提出了一种自动句子分割方法,用于帮助机器自动识别语言障碍性痴呆疾病患者的语言,获得了比条件随机场模型更好的结果,为自动话语分析工具的发展提供了一定的参考。
Oct, 2016
本文研究利用 Rhetorical Structure Theory 和递归神经网络(使用新提出的 attention 机制)来加强文本分类的方法,实验结果表明其优势和劣势。
Feb, 2017
本文提出了一个基于层级注意力双向 LSTM 网络的主题分割器,通过添加相干性相关的辅助任务和受限制自注意力来更好地建模上下文,从而超过了 SOTA 方法,并在领域转移设置中证明了其鲁棒性和在多语言场景中的有效性。
Oct, 2020
使用 Discobert 模型从已修剪的子句中提取文本,通过基于结构的话语图来捕获在 BERT 中不能很好捕获的长程依赖关系,该模型在流行的摘要基准测试中表现出显着的优越性。
Oct, 2019
本文描述了一种 RST 分割和解析系统,该系统可以快速、稳健地处理新闻文章或文章等短文档,并将各种先前工作的模型和特征集进行了适应,其准确性接近于最先进的水平。
May, 2015