组合网络实现基于场景的语言理解的系统性泛化
本文介绍了一个新的基准测试 gSCAN,用于评估位于语言理解中的组成泛化,在语言描述中使用诸如 “在摩天轮旁边向粉色布朗托蜥蜴问候” 等常见词汇,并将其用于语言理解任务。测试发现,在需要系统的组成规则的情况下,强大的多模态基线模型和最先进的组成方法在大多数情况下都会明显地失败。
Mar, 2020
该研究回顾了当前深度学习语言处理网络的主要创新,讨论了一系列研究表明深度网络能够进行微妙的语法依赖性泛化,但也不依赖于系统化的组合规则,这一现象应该引起语言学家和认知科学家的兴趣。
Mar, 2019
本研究探索使用双重表示来编码组合性,一种生成注意力图,另一种将输入转化为数字的映射。我们改进了每种表示中的熵来提高泛化能力。在五项自然语言处理任务中,实验结果显示本方法对于传统方法有显著的改进,协助实现人类级别的组合语言学习。
Oct, 2019
本研究基于观察到实现 gSCAN 任务的关键在于在进行 navigate 操作之前确认 target object 和转化成序列的理念,提出了一个基于注意力机制改进的模型和一个辅助损失函数,该方法对两个组合任务具有很好的性能且验证了 gSCAN 作为评估模型组合能力的基准任务的相关性。
Sep, 2020
该论文介绍了 SCAN 领域,并使用序列到序列的方法对各种复发神经网络进行零样本泛化能力的测试。研究发现,当训练和测试指令之间的差异很小时,RNN 可以成功进行零样本泛化,但是当泛化需要系统的组合能力时,RNN 则失败了。研究结论显示,缺乏系统性可能部分原因导致神经网络需要大量的训练数据。
Oct, 2017
通过扩展语义解析的组成概括工作,我们为生成与知识图谱配对的自然语言问题开发了一种方法,以在不受限于语言模型权重隐式编码的信息的同时,对这些模型从知识图谱中学习和概括程度进行控制性评估,我们发现现有的将语言模型与知识图谱组合的方法在未见过长度序列和新组合的基础组件方面存在泛化问题,因此,我们希望我们的工作和发布的数据集能够促进未来研究并探索如何更好地将语言模型与结构化知识表示相结合的方法。
Jun, 2024
通过基于神经网络和具有符号功能的可变插槽进行变通泛化的记忆增强神经模型,该模型由两个协同神经模块组成,一个是 Composer,另一个是 Solver,通过分层强化学习算法进行端到端训练,实现变通组合能力,其在 well-known benchmark SCAN 上的实验表明,我们的模型具有极强的组合泛化能力,以 100%精度解决了之前工作中面临的所有挑战。
Jun, 2020
人工智能中的大型语言模型和深度神经网络通过学习组合性处理和元学习的方式,展示了复杂的认知行为,为人类认知研究提供了新的视角和可能性。
May, 2024
本文研究了语言中的复合性在普遍性和人类认知中的作用,并通过两个代理人之间的沟通博弈,证明了当在适当的数据集上进行评估时,复合性确实似乎对成功的泛化至关重要。
Jun, 2022