语言模型对我们的理解仍不完善
自然语言处理领域对于意义和测量的问题进行了实证研究,本文勾勒了一种理解模型,用于评估当前模型质量测量方法的适应性,并指出不同语言使用情境类型的特点、语言理解是多方面现象,以及理解指标的选择标志了对基准测试和语言处理伦理的考虑的开端。
Oct, 2023
本文通过概率认知模型解释了语言模型的运行方式,尤其是展示了通过强化学习从人类反馈中优化的大型语言模型实现了一种类似于 Kahneman 快慢思考模型的思维模型,并讨论了强化学习作为快慢思考模型的局限性,并提出了扩展此框架的方向。总的来说,我们的工作表明,通过认知概率建模的视角来理解、评估和发展语言模型可以提供有价值的见解。
May, 2023
通过神经激活语言模型,线性解码不同代理人的信念状态,发现其内部包含了自我和他人信念的表征,这些表征对社会推理过程具有关键作用,同时在不同因果推理模式的多种社会推理任务中表现出潜在的泛化能力。
Feb, 2024
语言是理解和交流情境的关键,而语言处理系统使用类似人脑的神经网络以及查询注意力等方法来提高其能力,但当前的模型主要集中在内部语言任务上,限制其理解情境的能力,因此需要未来的模型应用认知神经科学和人工智能来扩展理解任务。
Dec, 2019
调查了 250 多个英文语言模型行为的研究,讨论了 Transformer 语言模型在特定任务微调之前的基本功能,以及模型对特定输入和表面特征的敏感性。尽管模型参数规模扩大到数百亿,但仍容易出现非事实性回答、常识错误、记忆文本和社会偏见等弱点。我们综合近期结果,强调了目前关于大型语言模型能够和不能够做到什么的已知情况。
Mar, 2023
研究人工智能中对大规模预训练语言模型是否在任何重要意义上可以称为 “理解” 语言,以及对应的关键问题和新的智能领域的发展。提出一种新的智能科学来提供关于知识的不同模式,以及它们的优势和限制,以及融合不同形式认知的挑战的见解。
Oct, 2022
本文通过在英语材料的专家评估集上进行零 - shot 提示,进行了人类和语言模型在七个语用现象上的精细比较,发现最大的模型可以实现高精度和匹配人类错误模式,同时发现证据表明模型和人类对相似的语言提示敏感,旨在探讨人类语用处理机制和语言模型之间的关系。
Dec, 2022
给定人工智能素养的重要性,本研究撰写了本教程,旨在帮助缩小学习语言模型(如 ChatGPT 等产品的核心技术)的研究者与对其感兴趣并希望了解更多的人之间的差距。总之,我们相信研究人员和教育工作者的观点可以增加公众对这些技术的理解,超越目前仅有的极其专业或由产品供应商生成的宣传材料。通过将语言模型概念与基于其构建的产品、产品所表现的行为以及与人类认知相似性的主张区分开来的方法,我们提供了(1)以实验研究为研究对象的科学观点;(2)将当前的语言模型置于其发展研究的背景中;(3)描述了目前对这些模型的已知范围。
Nov, 2023