转换机构——关于大型语言模型存在方式的研究
该论文旨在提出一种“基础”的视角,启发人工智能的进步,包括“基于感知-动作循环的体现、嵌入、延伸和实践认知”的研究方向,以及运用逐步发展的技能促进逐步的语言发展、逐渐适应物理和社会环境的智能代理等几个具体的组成部分,以建立人类一样的语言能力。
Jan, 2022
本文基于精神分析学和批判性媒体研究的资源,将大型语言模型(LLMs)作为自动化主体进行分析,并通过这种方式对AI行为进行分析,包括其对偏见和伤害的产生。我们介绍了语言模型的重要性和风险,并通过与OpenAI的 InstructGPT 进行探索性访谈来作为案例研究。我们的研究发现,这些自动化的语言产生可以引起人的注意,产生进一步的反移情转移。因此,我们得出结论,批判性媒体方法和精神分析理论共同为我们理解由 AI 驱动的语言系统新的强大智能提供了一种有益的视角。
Dec, 2022
NLP系统在多智能体社会中能够模拟人类协作智能吗?本文通过实验和理论结合,研究了当代NLP系统之间的协作机制,发现使用不同的社交行为,从积极辩论到内省反思,LLM代理能够高效完成任务,并表现出类似人类的社交行为,这为LLM的协作机制提供了进一步的研究启示。
Oct, 2023
大型语言模型(LLMs)在理论心理学的出现上引起了极大的兴趣和争议。我们通过心理学研究将机器的心理模拟(machine ToM)分为七个类别,并提出了一种更全面的评估方法,通过将LLMs放置在具体环境中进行评估,来避免捷径和数据泄露的风险。希望这篇观点论文能促进未来研究将机器ToM与LLMs结合起来,并为研究人员更好地定位自己的工作在ToM领域中提供一个直观的方式。
Oct, 2023
通过借鉴社会科学和人工智能界的广泛研究,我们提出了一套最大量、最大质量、最大相关度、最大方式、最大善意和最大透明度的法则,旨在描述有效的人工智能对话,并为评估和改进设计提供了规范指导。
Mar, 2024
通过对大型语言模型的解释性、因果干预方法的证据,以及多模态和模块化扩展,最近关于意识最低标准的争议以及在大型语言模型研究中的保密性和可重复性方面的担忧的讨论,该文讨论了大型语言模型及其对人类认知建模的相关性。
May, 2024
该研究论文主要讨论了关于大型语言模型(LLMs)的语言能力的关键问题,指出基于语言完整性和数据完整性的两个无根据的假设导致了关于LLMs能力的夸大和误导性说法,同时通过非行动方法论的角度提出了存在于LLMs中的三个缺失因素,即具身性、参与度和不稳定性,这些缺失因素使得LLMs在当前的架构中无法成为类似于人类的语言代理。
Jul, 2024
这篇论文探讨了将心理学谓词归因于大型语言模型(LLMs)等人工智能系统是否明智,认为尽管LLMs在语言使用者意义上确实与Ludwig Wittgenstein所描述的相似,但归因于这些系统具有心理学谓词仍然是一种功能主义的诱惑,而社交人工智能更像是Italo Calvino的文学机器,该文将LLMs作为Wittgenstein式的语言使用者和Calvino的生成文学机器的思想结合起来,揭示了从这两者等同到将心理学谓词归因于社交人工智能中错误的功能主义诱惑,而社交人工智能缺乏构建故事交际和人类(相互)行为认知的基本自我进化能力,这种心理学谓词的归因可能是有道理的,但其路径存在于生与死之间,而非在情感工具和文学机器之间的近似情感。
May, 2024
这篇论文探讨了大型语言模型(LLMs)如ChatGPT是否具有思维,特别关注它们是否拥有包括信念、欲望和意图在内的真实民间心理。我们通过调查内部表征和行为倾向这两个关键方面来探讨这个问题。首先,我们调查了各种哲学理论,包括信息论、因果论、结构论和目的论账户,认为LLMs满足每个账户提出的关键条件。我们利用机器学习中的最新可解释性研究来支持这些主张。其次,我们探讨LLMs是否展示了执行行为的坚实倾向,这是民间心理的一个必要组成部分。我们考虑了两个著名的哲学传统,即解释主义和表征主义,以评估LLM的行为倾向。虽然我们发现有证据表明LLMs在某些标准下可能具备思维的特征,特别是在博弈论环境中,但我们得出的结论是,数据仍然不具有说服力。此外,我们回答了对LLM民间心理的几个怀疑挑战,包括感知基础、“随机鹦鹉”论证以及对记忆的担忧等。我们的论文有三个主要观点。第一,LLMs确实具有坚实的内部表征。第二,是否LLMs具有坚实的行为倾向还有一个未解答的问题。第三,对LLM表征的现有怀疑挑战在哲学上经不起推敲。
Jun, 2024