颠覆机器,变幻身份:重新学习人类分类
人类有倾向在周围的物体中看到类似于 “人” 的特质。这种行为被称为拟人化,并且这种拟人化趋势也出现在机器学习中,其中声称在大型语言模型中感知到类似于人类智能的特质。本立场论文通过考虑专业激励、人类偏见和一般的方法论设置,讨论了当前对人工通用智能(AGI)的追求与将人类特质过度归因于大型语言模型之间的关系。通过几项实验,我们证明在潜在空间中发现可解释的人类模式并不足为奇。另外,考虑到媒体中对人工智能的普遍描绘,我们呼吁学术界在解释和交流人工智能研究结果时要格外小心,并且要对学术诚信原则有更高的意识。
Feb, 2024
每天我们越来越依赖于机器学习模型来自动化和支持高风险任务和决策。这篇论文提出了混合决策系统的分类法,提供了一个概念和技术框架,以理解当前计算机科学文献中的人机交互模型。
Feb, 2024
通过设计多模态数据集和三个实验,本研究调查了人类和大模型在通信中作为关键环节时的偏见和偏好。研究结果表明,合成信息更有可能被纳入模型训练数据集和传播,而人类生成的信息在传递过程中会被模型选择性地修改和遗失,这种现象在信息交流中造成了社会信息多样性的减少以及大模型性能的局部最优问题。
Feb, 2024
通过深度学习使自主系统能够在感知的亚符号方式下逐渐理解对象及其环境,执行对象检测、传感器数据融合和语言理解任务。为了实现强大的人工智能,我们需要考虑人类提供的显式教学和通过观察人类行为获得的隐式教学,同时设计多模态输入和输出能力的系统以支持隐式和显式交互模型。我们提出了几个假设和设计指南,并通过相关工作的一个用例来实现这个目标。
Sep, 2023
研究人员发现,人们将人性化特征赋予 AI 系统的倾向会严重影响其在法律层面上的合规性,并对人类与 AI 之间的互动方式产生根本性的改变,实现潜在的操纵和负面影响。为了提高 AI 系统的可靠性,我们提出了一种谨慎使用人性化策略的保守策略。
May, 2023
提出自动内在动机代理 (autotelic agents) 的 Vygotskian 模型,通过对话语言和实体环境交互学习,实现自我生成目标和内化交互成为认知工具,进而形成人工认知功能,从而推进社会化学习的人工智能研究应用前景。
Jun, 2022
大型语言模型根据其他人生成的文本来引导它们的行为。这种能力以及它们在在线环境中越来越普遍的存在预示着它们将有意或无意地 “编程” 彼此并形成新兴的人工智能主体性、关系和集体。在这里,我们呼吁研究界调查这些互动人工智能的 “类社会” 属性,以增加它们对人类社会和在线环境健康的回报并减少风险。我们使用一个简单的模型及其输出来说明这样的新兴分散型人工智能集体如何扩大人类多样性范围并降低在线毒性和反社交行为的风险。最后,我们讨论了人工智能自我调节的机会,并解决了与创建和维护分散型人工智能集体相关的道德问题和设计挑战。
Feb, 2024
本文提供了一个交叉学科的观点,以发展由人与机器组成的社会技术群体,通过结合人工智能和人类智能,共同实现复杂目标,并从彼此学习中不断提高。因此,需要为这些系统提供结构化的设计知识,并展示了使这些应用程序的系统开发人员有用的指导。
May, 2021
本文主要探讨在当前和未来的自动机器学习系统中,人与计算机交互如何发生(包括开发、部署和维护阶段的 HCI),不同类型的用户和利益相关方对 HCI 的期望是否存在差异,如何管理 HCI 以使自动机器学习获得人的信任和广泛接受,以及随着自动机器学习系统变得更加自主和学习能力增强,HCI 的基本特性是否会发生变化。研究关键领域包括自动化机器学习,人机交互,用户界面设计,人工智能信任等方面。
May, 2022