本文介绍和演示了一种从自然语言文本中学习社会规范的计算方法,包括什么是正常和什么是规范的区别,为普通人培训 AI 系统有关社会规范提供了基础。
Jan, 2022
通过全球联合国教科文组织成员国的多样化立场代表,本文将解释人工智能 (AI) 规范的全球妥协成果,并构建了多边谈判的实践概念,将多边妥协归功于结构规范的混合性和定位规范的模糊性。
Sep, 2023
本文探讨了人工智能系统的潜在风险和利益,指出达成社会契约需要确定 AI 的目的和风险水平并采用安全、负责任和有益的方法。
Jun, 2020
本文利用数据可视化的工具对 200 个标准化和指导人工智能发展的文件进行分析,探讨不同机构之间原则的共识和相似性,以此为未来的政策制定提供启示和引导。
Jun, 2022
通过证据的汇集,展示了自然智能是通过不同尺度的互动网络中的智能集体、社会关系和主要进化转变而产生的,这些过程通过种群压力、军备竞赛、马基雅维利选择、社会学习和积累文化等机制促进了新数据的产生,将这些机制整合到智能代理的视角中,表明通过持续的新数据生成实现类人复合创新的可能路径。
May, 2024
近期的人工智能进展为学术同行评审带来了机遇与风险,讨论主要围绕在学术期刊出版中的剽窃和作者权益,忽视了同行评审所处的更广泛的认知、社会、文化和社会认知等问题;论文强调了:AI 驱动的同行评审的合法性需要进行批判性评估,包括其在更广泛的认知、社会、道德和法规因素上的利弊,并与学术社区中定义适当行为的道德和认知规范的一致性。
本文分析比较人工智能伦理指南的规范原则、建议和忽略之处,提供了对人工智能伦理领域的详细概述,并研究这些伦理原则和价值观在人工智能系统研究、开发和应用实践中的实现程度。最终,本文探讨了如何提高人工智能伦理的有效实施。
Feb, 2019
人工智能创新主要关注 “what” 和 “how” 问题,忽视可能的危害与社会背景,导致了潜在的社会技术问题,因此我们需要计算机科学和社会学科之间更紧密的联系。
Dec, 2020
本文探讨了大规模语言技术在人类与对话代理之间的应用,提出了几个步骤以确保人类价值观得到贯彻,并探索了如何通过对话规范来协调对话代理与人类之间的通信。
Sep, 2022
个性化 AI 技术的定制对其良好运行至关重要,当前的方法需要太多用户参与,无法真正捕捉其偏好。我们认为需要一种新的视角来构建规范,利用整个用户系统中大量可用的偏好信息,启发于推荐系统,我们相信协同过滤可以提供一种适合的方法来识别用户的规范偏好,避免过多用户参与。
Aug, 2023