本文研究了不同的方法,通过规划标题的句法结构来提高在图像说明中的组合泛化的能力。实验表明,同时建模标记和句法标签可以增强 RNN 和 Transformer 模型的泛化能力,同时提高标准指标的性能。
Jan, 2021
本文研究了复合推理在分类任务中的应用,并提出结构提示(如句法树和实体链接)对于解决神经模型复合推理问题具有较好的效果。
Jun, 2021
本文提出了一种用于图像字幕生成的可分解的相互递归生成过程,通过对语义和句法明确的因式分解,更好地保留了语义内容。所提出的组合过程需要较少的数据进行训练,并具有更好的广义和多样性。
Oct, 2018
通过创建独特的数据集,评估现有多标签文本分类模型对复杂概念的组合泛化能力,在此基础上引入了数据增强方法,利用两种创新的文本生成模型提高分类模型对组合泛化的能力。实验证明,该数据增强方法显著提升了分类模型在我们的基准测试中的组合泛化能力,两种生成模型均超过了其他文本生成基准。
Dec, 2023
在语义解析中,提出了一个新的解码框架,该框架保留了序列到序列模型的表现力和通用性,同时具有类似词典的对齐和解开信息处理,能够提高模型的组合泛化能力。
Oct, 2020
本文介绍了一种基于组合神经模块网络和分层框架的图像字幕方案,探索了自然语言的组成和顺序性,选择性地关注输入图像中每个检测到的对象的不同模块,以包括计数和颜色等特定描述,提出模型优于现有模型,结果表明我们的组成模块网络能够有效地生成准确和详细的图像字幕。
Jul, 2020
自然语言是组成的,神经网络在组成泛化方面表现差, 自相似度驱动的元学习可提高自然语言处理模型的组成泛化能力。
本文针对基础的 seq-to-seq 模型缺乏组合概括能力的问题,重点讨论了使用一次性原语概括来增强这种能力的方法,发现通过修改训练数据的方式,能够使标准的 seq-to-seq 模型实现接近完美的概括能力表现,并且对该现象进行了详细的实证分析,指出了模型的概括性能对于训练数据的特征非常敏感,因而应该在设计这样的基准测试时仔细考虑训练数据的选择。
Mar, 2022
本研究提出了一种基于分子分散度最大化和原子分散度最小化的方法去构建实际应用的语言理解数据集,并通过分析三个多层次深度学习架构的表现来量化比较这种方法与其他构建复合语言理解测评基准的方法,研究表明现有的机器学习方法在复合语言理解上处于局限性表现,且都表现出惊人强的负相关性,研究结果可应用于构建和优化大规模自然语言处理应用系统。
Dec, 2019
本文对最近在分析、方法和评估方案上的进展进行了综述,为从业者和研究人员在这一领域提供了一个起点。
Apr, 2024