通过语义感知的排列训练减轻逆序诅咒
通过训练动力学,理论分析自回归模型中的逆转问题,揭示了逆转诅咒发生的核心原因是自回归模型的权重存在不对称性;同时,证明了链式思维在一层变压器中的必要性,并进行了与多层变压器的实验证实。
May, 2024
该研究揭示了自回归大型语言模型(LLM)中的泛化失败现象,即逆转诅咒,导致逻辑推断的基本失败。通过证据和评估表明 Reversal Curse 在不同模型大小和家族中都是普遍存在的。
Sep, 2023
大型语言模型(LLMs)在 “A 具有特征 B” 的训练中无法推广到 “B 是 A 的特征”,这称为反转诅咒。本研究提出了一种替代训练方案,称为反向训练,通过将训练字符串进行反转并保留(即不反转)选择的子字符串(如实体)来同时以正向和反向方式训练 LLM,以加倍可用令牌的数量。我们证明,数据匹配的反向训练模型在标准任务上提供了优越的性能,而计算匹配的反向训练模型在反转任务上提供了远超过标准模型的性能,有助于解决反转诅咒问题。
Mar, 2024
最好的语言模型仍然在幻影现象方面存在困难:生成的事实不正确,这妨碍了它们在训练期间可靠地检索到的信息;我们将逆序诅咒重新界定为因子化诅咒 - 模型在不同的因子化下学习相同联合分布的失败;通过一系列的受控实验,包括我们引入的模拟知识密集的微调任务的 WikiReversal,我们发现因子化诅咒是流行大型语言模型中使用的下一个标记预测目标的固有失败;此外,我们证明可靠的信息检索无法通过规模、反向标记甚至朴素的双向注意力训练来解决;因此,在专门数据上进行微调的各种方法在下游任务上必然会产生不同的结果,除非模型已经看到正确的令牌序列;在五个不同复杂程度的任务中,我们的结果揭示了一个有希望的前进路径:因子化不可知目标可以显著减轻逆序诅咒,并暗示了改进的知识存储和计划能力。
Jun, 2024
在这项研究中,我们探讨了大规模语言模型在逻辑推理方面的局限性,发现 ChatGPT 等自回归解码器训练模型在 'A 是 B' 的任务中往往无法学习到 'B 是 A',从而揭示了它们在逻辑演绎上的失败。我们的研究不仅对双向语言模型 BERT 进行了评估,发现其对逆转诅咒具有免疫能力,还探索了医学知识图谱构建中的复杂演绎推理能力。尽管在处理两个集合(并集 / 交集)的情况下编码器和解码器模型表现良好,但在涉及三个集合的操作(并集、交集的各种组合)时,它们遇到了困难。因此,选择 BERT 和 GPT 模型应该根据任务的具体要求和性质,充分利用它们在双向上下文理解和序列预测方面的优势。
Dec, 2023
本文研究双向语言模型编辑,旨在提供严格的模型编辑评估,以评估编辑后的语言模型是否能双向回忆编辑的知识。引入了一种新的可逆性评估度量,并构建了一个名为 Bidirectional Assessment for Knowledge Editing (BAKE) 的基准来评估编辑后模型在回忆编辑的知识反向方向上的可逆性。我们惊奇地发现,虽然当前的编辑方法和语言模型在编辑方向上能有效地回忆编辑的事实,但在反向方向上评估时存在严重不足。为了缓解这种逆转的问题,提出了一种名为 Bidirectionally Inversible Relationship moDeling (BIRD) 的方法。设计了一组编辑目标,将主体和客体之间的双向关系纳入更新后的模型权重中。实验证明,BIRD 通过问答和判断提高了四个不同规模的代表性语言模型的性能。
Oct, 2023
本文提出了一种名为 SUREALM 的新型语言模型,它采用后缀检索技术,以自回归方式模拟双向上下文效果,并在 DSTC9 口语对话语料库上进行了评估,与竞争基线相比,在验证和测试集上显示出很好的词困惑度降低。
Nov, 2022
通过研究语言模型监管的方法和攻击,本文提出一种自动破解监管的方法,即引入语意防火墙概念并提供三种技术实现方式,从而成功地实施了 “自欺” 攻击。实验证明该方法的有效性,为未来研究提供了启示。
Aug, 2023
该研究通过引入语言特定模块解决了多语言预训练模型中语言性能下降的问题,并在自然语言推断,命名实体识别和问答等方面证明了该方法的有效性,同时也使得可以在不降低性能的情况下添加新的语言。
May, 2022