人工智能中的文化不协调
本文探讨了人工智能算法的社会文化和伦理挑战,强调了它们文化响应式发展的必要性,并提出了提高人工智能系统适应当代多元文化社会需求的关键元素的建议。本文还强调了进一步跨学科研究的必要性,以有效解决这些挑战,并强调了在人工智能培育和推动文化责任的重要性。
Dec, 2023
迫切需要将不同文化群体的视角纳入人工智能发展中。我们提出了一个新颖的概念框架,旨在通过独立和相互依赖的文化自我和环境模型来扩大、重新构想和重新建立人工智能的主流愿景。两项调查研究支持该框架,并初步证明人们在想象理想的人工智能时应用了他们的文化模型。与欧美受访者相比,中国受访者认为控制人工智能的重要性较低,与人工智能建立联系的重要性较高,并更倾向于喜欢具有影响能力的人工智能。与欧美受访者和中国受访者相比,非洲裔美国受访者的发现既像欧美受访者又像中国受访者。我们讨论了研究的局限性和未来方向,并强调了开发对世界人口更广泛服务的文化响应和相关人工智能的重要性。
Mar, 2024
解釋性人工智能 (XAI) 系統需要考慮人們的文化差異,並確定不同文化背景下的使用者對於解釋的需求,以免產生文化偏見,目前的研究普遍忽略了這方面的變異,這項研究旨在填補這一知識空白。
Feb, 2024
文化和人工智能之间存在双向关系,因此需要更全面地考虑文化的复杂性,包括主观性、可扩展性、上下文性和时间性,以便更好地捕捉文化的复杂性和解决人工智能中的偏见问题。
Nov, 2022
人工智能在几个关键方面仍然比人类智能有限,如在理解上下文、言外之意和微妙线索方面的能力。本文展望了可能用于缩小人类智能与机器智能差距的机器智能候选方法,重点讨论了当前人工智能技术的不足,以及层次规划和能量基、潜变量方法以及联合嵌入预测架构方法如何帮助弥合这一差距。
Aug, 2023
该论文旨在提出一种 “基础” 的视角,启发人工智能的进步,包括 “基于感知 - 动作循环的体现、嵌入、延伸和实践认知” 的研究方向,以及运用逐步发展的技能促进逐步的语言发展、逐渐适应物理和社会环境的智能代理等几个具体的组成部分,以建立人类一样的语言能力。
Jan, 2022
使用逆强化学习作为方法,使得人工智能代理人能够基于人类观察和互动隐式地获得文化敏感的价值观体系。通过在线虚拟世界中观察不同文化群体的行为,我们的实验结果显示出代理人能够通过学习特定文化群体的行为获得反映该群体行为的利他特征,且这一学习到的价值体系可以推广到需要进行利他判断的新场景。这是首次演示出人工智能代理人具备持续从观察和与人类互动中学习价值观和规范的能力,从而与其所操作的文化环境相适应。
Dec, 2023
讨论了设计人类感知人工智能系统面临的挑战,包括建模人类的心理状态、识别其愿望和意图、提供主动支持、展示可解释性行为、并引发信任等,并强调这种系统引出的伦理困境和推广真正跨学科合作的必要性。
Oct, 2019
本文主张人工智能系统需要模拟、理解、甚至复制人类的认知偏差,在人机协作中扮演更加重要的角色,并提出了关于人类认知偏差和人工智能之间相互作用的研究议程及三个感兴趣的广泛领域,并为具有更好对人类偏见的人工智能系统的设计方向提出了研究方向。
Oct, 2022
通过引入贝叶斯框架,研究了与生成人工智能合作时可能出现的一种情况:用户可能会获得生产力的提高,但人工智能生成的内容可能无法完全符合他们的偏好。我们揭示了个体决策与人工智能训练之间的相互作用可能导致社会性挑战,输出结果可能变得更加同质化,特别是当人工智能基于人工智能生成的内容进行训练时。解决同质化和偏见问题的方法是改进人工智能与人类的交互,实现个性化输出而不损失生产力。
Sep, 2023