去人格化自然语言处理:语言模型能否有意识?
讨论大型语言模型是否可能有感知或意识,根据意识科学领域的主流假设,目前模型存在很多意识问题,例如缺乏循环处理、全局使用空间和统合愿景等。然而,这些问题将在未来十年内被克服。因此,目前的大型语言模型不太可能具有意识,但是我们应该认真考虑到大型语言模型的扩展和后继模型未来可能具有意识。
Mar, 2023
该论文研究了大型语言模型是否具有自我意识,从神经科学的角度出发,作者认为这一观点难以被证实,因为这种模型缺少与哺乳动物意识密切相关的丘脑皮质系统的关键特征,且这些模型的输入缺乏与我们周围世界的感官接触特征的具体信息。作者认为,意识存在于 “皮肤在游戏中” 的情境中,而目前的人工智能系统尚未具备这一特征。
Jun, 2023
2017 年夏天,举办了 8 场关于 “技术与意识” 主题的研讨会,目的是评估机器意识的可能性以及其潜在影响。报告总结了讨论的主要主题,包括大脑的结构和功能、意识的理论、意识机器的构建、意识的检测和测量、意识技术的潜在出现、对技术的控制方法以及可能应对的伦理考虑。
Jul, 2022
大型语言模型是否具有类似于人类的任何形式的知觉?本文介绍了将知觉概念引入到大型语言模型中,认为知觉是增强大型语言模型与人类互动并确保其道德回应的重要方面。我们定义大型语言模型的知觉为其作为 AI 模型感知和理解自己,以及展现社交智能的能力。我们确定了四个关键方面的知觉:能力,使命,情感和视角。为了评估大型语言模型在这些方面的表现,我们引入了一个专门的数据集,即 AwareLLM 数据集。我们的研究结果表明,大型语言模型展现了一定程度的知觉,尽管它们仍然缺乏实质性的能力知觉。
Jan, 2024
LaMDA 是一种专门用于对话的基于 Transformer 的神经语言模型,其具有高达 137B 的参数,并使用公共对话数据和 Web 文本预训练。它具有先进的优化技术,能够解决安全性和事实基础等关键挑战,以及能够在教育和内容推荐领域发挥积极作用。
Jan, 2022
本文基于精神分析学和批判性媒体研究的资源,将大型语言模型(LLMs)作为自动化主体进行分析,并通过这种方式对 AI 行为进行分析,包括其对偏见和伤害的产生。我们介绍了语言模型的重要性和风险,并通过与 OpenAI 的 InstructGPT 进行探索性访谈来作为案例研究。我们的研究发现,这些自动化的语言产生可以引起人的注意,产生进一步的反移情转移。因此,我们得出结论,批判性媒体方法和精神分析理论共同为我们理解由 AI 驱动的语言系统新的强大智能提供了一种有益的视角。
Dec, 2022
Animacy is a crucial aspect of cognitive processing and language, impacting memory, vision, and language comprehension; transformer language models (LMs) are sensitive to lexical semantic nuances of animacy despite lacking access to extralinguistic information, demonstrating their ability to adapt even to stories involving atypically animate entities.
Oct, 2023
我们通过在 6 个任务上进行广泛的评估,发现虽然 LLM 表现出某些神经理论社交认知能力,但这种行为远非稳健。我们进一步研究影响 N-ToM 任务表现的因素,并发现 LLM 难以应对对抗性例子,这表明它们依赖于浅层启发式算法,而非稳健的 ToM 能力。我们警告不要从个别例子、有限的基准测试和使用人设计的心理测试来评估模型。
May, 2023