未观察到的局部结构使得组合泛化变得困难
该研究系统比较了序列到序列模型和基于组合原则的模型在 COGS 语料库上处理组合泛化能力的能力,在结构泛化任务中,基于序列的模型表现接近零,而组成模型在结构泛化任务中表现接近完美,这表明结构泛化是组成泛化的关键度量,需要能够处理复杂结构的模型。
Feb, 2022
通过实验证明,Seq2Seq 模型在英语句法分析、语义分析和文本之间的转换任务中,普遍存在推广的普适性较低的问题,但是在建立了语言知识的神经符号模型中,这些限制往往可以克服。
Oct, 2022
本篇论文从识别可表达性学习出发,将组合性视为数据生成过程的属性而非数据本身,并提出了仅取决于训练分布和模型架构的轻微条件,为组合泛化建立了理论框架,并验证了其应用于现实世界场景的结论,从而为组合泛化的原则性理论研究铺平了道路。
Jul, 2023
本文介绍了 CoFe 测试套件,以研究上下文中符合规范的泛化,研究发现,应该具有与测试案例结构相似,彼此之间不同和个别简单的上下文实例,还应该覆盖必需的语言结构。
May, 2023
本文针对基础的 seq-to-seq 模型缺乏组合概括能力的问题,重点讨论了使用一次性原语概括来增强这种能力的方法,发现通过修改训练数据的方式,能够使标准的 seq-to-seq 模型实现接近完美的概括能力表现,并且对该现象进行了详细的实证分析,指出了模型的概括性能对于训练数据的特征非常敏感,因而应该在设计这样的基准测试时仔细考虑训练数据的选择。
Mar, 2022
本研究基于多种语言和哲学理论对构成性的不同解释,提出了五个理论有据的测试方法,用于评估神经语言模型的构成性能力,结果分析了三种常见神经网络结构在高度构成性数据集上的表现和潜在改进方向。
Aug, 2019
通过对不同数据因素(包括数据集规模、模式复杂度和示例难度等)的多样化训练集进行实证分析,本研究发现增加数据集复杂性有助于提高模型在多个不同泛化挑战上的泛化行为,并且展示了更复杂的数据集提供更多样化示例以增强组合性理解效果,并减少示例的重复频率以避免不可泛化的记忆,同时强调了简单示例在合成数据集上引发比复杂示例更强的组合性,而在更大规模的真实语言数据集上,简单和复杂示例的平衡混合能够诱导出最强的泛化能力。
Nov, 2023
介绍了一种广泛适用的形式主义,即组合问题图,以解决机器学习中不利于推广的问题,提出了组合泛化问题并引入组合递归学习器,该框架适用于学习算法过程以组合表示转换,从而产生能够进行推理的学习器。
Jul, 2018