通过叙述方式检测语言模型中的模式坍塌
训练自然语言处理系统以深入理解语言是该领域的中心目标之一。本文从人类大脑理解自然语言的角度出发,研究了使用叙述数据集进行深层次叙事理解训练的语言模型是否真正学习了更深层次的文本理解,并表明了这种训练可以带来更好的大脑 - 自然语言处理对齐性、可以使语言模型在长距离文本理解方面取得改进。
Dec, 2022
该研究提出一种基于循环语言建模的神经模型,通过考虑作者和时间向量状态来捕捉作者社区的语言扩散趋势,从而超越了多个基于时间和非时间的语言基线,并学习了随时间变化的有意义的作者表示。
Sep, 2019
本研究旨在有意地引入偏见到大型语言模型的响应中,以创建特定的互动媒体角色。我们探索了 Falcon-7b 等开源模型与 Open AI 的 GPT-4 模型之间的差异,并对两个系统的响应进行了一些量化比较。我们发现,GPT-4 的专家混合模型中的防护措施虽然在确保 AI 的整体对齐方面很有用,但在构建具有各种不寻常观点的角色时却具有负面影响。本研究旨在为未来探索大型语言模型中的有意偏见奠定基础,以便这些实践可以应用于创意领域和新型媒体。
Nov, 2023
本文探讨自然语言模型在生成具有被误认为是他人所写的能力的在线文本方面的潜力,发现当前的这类技术中 GPT-2 可成功地模拟与欺骗常见的作者识别的方法,说明了这类技术的巨大潜力和其实际应用如非法信息识别和犯罪取证的重要性。
Mar, 2022
研究通过以前辈生成的合成数据对大型语言模型进行训练的后果,重点关注这种训练方法对语言多样性的影响,特别是在逐步迭代的过程中。通过开展递归微调实验,应用一系列针对词汇、句法和语义多样性的新型度量标准,我们的研究发现模型输出的多样性在连续迭代中显著降低。这一趋势强调了在训练大型语言模型时使用前辈生成文本的潜在风险,特别是涉及保留语言丰富性方面。我们的研究突出了需要仔细考虑这种训练方法对大型语言模型的语言能力所产生的长期影响。
Nov, 2023
通过研究语言模型在下一个单词预测任务中的表现与人类行为模式的比较,发现人类与 GPT-2 语言模型在文本展现初期表现强相关,随着记忆(或背景学习)的作用逐渐发挥,二者的表现迅速分歧,研究发现这种分歧的原因是特定的中间层注意力头部,为此通过在这些注意力头部中添加幂律最近偏倚,构建了一个更接近人类行为的模型,希望此案例能够推动将语言模型更加贴近人类行为的未来研究。
Oct, 2023
通过评估 GPT-4,一个尖端的大型语言模型,在解释塞尔维亚诗歌中提取的新颖文学隐喻时所提供的自然语言解释能力,它未展现出之前接触过这些隐喻的迹象,但提供了详细而深刻的解释,被盲审的人员(不知道涉及 AI 模型的事实)将 GPT-4 生成的隐喻解释评为优于来自一组大学生的解释,这些结果表明 GPT-4 等大语言模型已经获得了解释复杂新颖隐喻的新兴能力。
Aug, 2023
通过实证分析大型语言模型(LLMs)的写作特征、对比专有和开源模型的异同、并探索通过语言的词汇、句法和结构方面的风格特征整合实现对 AI 生成文本的追溯,为神经网络作者归属提供经验性洞见,为应对 AI 生成的错误信息的威胁铺平道路。
Aug, 2023