本研究基于观察到实现 gSCAN 任务的关键在于在进行 navigate 操作之前确认 target object 和转化成序列的理念,提出了一个基于注意力机制改进的模型和一个辅助损失函数,该方法对两个组合任务具有很好的性能且验证了 gSCAN 作为评估模型组合能力的基准任务的相关性。
Sep, 2020
本文介绍了一个新的基准测试 gSCAN,用于评估位于语言理解中的组成泛化,在语言描述中使用诸如 “在摩天轮旁边向粉色布朗托蜥蜴问候” 等常见词汇,并将其用于语言理解任务。测试发现,在需要系统的组成规则的情况下,强大的多模态基线模型和最先进的组成方法在大多数情况下都会明显地失败。
Mar, 2020
使用谷歌的翻译翻译:“该论文介绍了基于变压器的模型如何理解世界,并将语言表达与现实世界联系起来,这对研究者在这一领域的工作非常有帮助。通过在基于网格的导航任务上进行的基准测试,我们发现识别网格世界中的目标位置是模型面临的主要挑战,变压器可以泛化到更深的输入结构,并提供了一种更简单的基于调节的组合任务,以调查变压器的计算行为。
Oct, 2022
该论文介绍了一种名为 SCAN 的学习框架,可通过快速符号关联以无监督方式发现视觉基元并将其作为抽象概念来学习概念。SCAN 还可以通过符号指令遍历和操作视觉概念的隐式层次结构,并通过逻辑组合操作创建视觉概念的新组合,并能够生成多模态双向推断的结果。
Jul, 2017
本篇论文通过研究 gSCAN 基准测试来探讨通用 Transformer 模型和跨模式关注方法在多模态研究中的应用,以此揭示语言构造系统化泛化方面的挑战。同时,作者提出了一些新的任务来挑战现有模型,并发现当前模型在指令狭窄范围内数据利用效率较低。
Sep, 2021
提出通过遵循组成性原则来训练神经网络解决语言理解的挑战,并通用地应用于多种领域,进而提高机器人的安全性和公平性,所提出的网络能够显着提高自然语言理解能力,且在实现先前工作所不能实现的泛化能力的同时还提供了可解释性的层面。
Aug, 2020
该论文介绍了 SCAN 领域,并使用序列到序列的方法对各种复发神经网络进行零样本泛化能力的测试。研究发现,当训练和测试指令之间的差异很小时,RNN 可以成功进行零样本泛化,但是当泛化需要系统的组合能力时,RNN 则失败了。研究结论显示,缺乏系统性可能部分原因导致神经网络需要大量的训练数据。
Oct, 2017
研究对比分析了两个数据集(SCAN 和 NACS)对循环编码器的细致测试,结果表明在 NACS 上表现良好的模型未必在 SCAN 上也表现良好,这为理解序列到序列模型的泛化特性提供了新视角。
Sep, 2018
本研究提出了一种新的基准数据集和一种神经消息传递模型,该模型结合了关系归纳偏差,与传统循环神经网络方法相比,在联络推理和组合泛化方面性能优越。
Nov, 2018
本文介绍了一种用于寻找仿生推理任务中数据复合结构的方法并提出了一种通过神经网络序列组合的算法,称为散射复合学习器 (SCL)。研究发现该算法在两个数据集上取得了最新成果,并改善了物体属性关系的组合表达式。此外,该算法具有更好的鲁棒性和更高的泛化能力。
Jul, 2020