感知微妙冲突的双路径语义匹配建模
本文提出了一种新的 Dual Attention Enhanced BERT 模型来提高 BERT 对句子对微妙差异的捕捉能力,该模型包含双重关注模块和自适应融合模块,可以显著提升在语义匹配领域的表现。
Oct, 2022
本文提出了一种使用双重学习算法的语义解析框架,通过与逻辑形式的查询之间的博弈,使语义解析器充分利用数据从而达到更好的性能。实验结果表明,该方法在 ATIS 数据集上取得了最新的最好性能,并在 Overnight 数据集上取得了有竞争力的性能表现。
Jul, 2019
本研究提出一种双路径变换网络(DPTNet)进行端到端语音分离,引入了直接上下文感知建模。改进的变换器使元素之间可以直接交互,并且双路径结构使得模型效率更高,实验结果表明,我们的方法优于当前最先进的模型(公共 WSj0-2mix 数据集上的 20.6 dB SDR)。
Jul, 2020
本文提出了一种基于自我监督学习和图像翻译的双路径学习框架 (DPL),以减轻在单域范式下 (源域或目标域) 导致的可视化不一致性,并通过双路图像翻译和双路自适应分割等创新技术推广两种方法在交互方式下相互促进,实验结果表明,DPL 模型比现有的基于自我监督学习和图像翻译的自适应分割方法具有更好的性能。
Aug, 2021
本文研究如何提高知识图谱的完整性,通过引入 LP-BERT 模型,并结合语义匹配以及数据增强的方法,实现了知识图谱补全任务的最新成果,优于现有最佳表现。
Jan, 2022
本研究利用深度神经网络模型自动检测双语并行句对中的语义差异,该模型能够在无需任何手动注释的情况下训练任何并行语料库,我们显示出我们的语义模型比基于单词对齐的表层特征的模型更准确地检测到差异,并且发现这些差异对神经机器翻译至关重要。
Mar, 2018
本文提出了一种新的 DualPath 适应性算法,将图像 transformers 的表示能力有效地转移至视频理解中,包括空间和时间建模,极大地拓展了预训练表示的泛化,同时在四个动作识别基准测试上进行了广泛实验比较。
Mar, 2023
提出了一种新的双重注意模型 (DAM) 用于方面级情感分类,该模型使用依存标签作为关注机制以提高性能,并在 SemEval 2014 和 Twitter 数据集上进行实验,取得了良好的效果。
Mar, 2023
本研究提出一种基于 Transformer 和 HowNet sememes 知识融合的协同驱动语义一致性识别方法,通过多层编码、交互式注意力计算和双向 LSTM 等技术,可以有效提高语义一致性识别的准确性并减小模型参数,适用于长文本场景和对语义一致性进行鉴别。
Feb, 2023