有待讨论的人格 AI 系统的全面权利困境
在后笛卡尔哲学基础上,我们不仅主张否定机器人的‘权利’,更否定机器人作为人类中介产物具有被授予权利的品质,同时认为如果以人的福利为首要关注点,机器系统带来的负面影响以及设计、销售和部署此类机器人的人员缺乏责任感,是 AI 中最紧迫的伦理问题,远比‘机器人权利’这个个第一世界问题更加紧迫,因为这关系到社会上最不发达的个体利益,如机器偏见、被机器人剥削的人类劳动力以及日益丧失的隐私等。
Jan, 2020
伴随着越来越多具有重大伦理维度的决策外包到 AI 系统中,有必要找到一个可应用于 AI 系统的道德责任定义。本研究基于因果模型的框架提出了一种正式的道德责任定义,包括因果条件和认识条件。并将该定义与 BvH 和 HK 的现有方法进行比较,进而将其推广为一种责任度量。
Oct, 2023
通过基于塞恩和纳斯鲍姆的能力途径的框架,我们形成了一个道德概念和权益的网络,目的是让 AI 系统对利益相关者产生有意义的益处或帮助,从而提升他们推进生活计划和福祉的能力,同时维护他们的基本权利。我们表征了 AI 系统和其运作所影响的人之间道德可容许互动的两个必要条件,以及实现有意义益处理想的两个充分条件。同时,我们将这一理想与几种突出的故障模式进行对比,即构成不合理家长式主义、强制、欺骗、剥削和支配的社会互动形式。AI 在高风险领域中的事件增加凸显了这些问题的重要性,也迫使我们从一开始就采取伦理导向的方法来应对 AI 系统。
Aug, 2023
通过使用逻辑 - 符号推理来解决人工智能可能存在的认识上问题,来避免擅自运用人工智能对输出内容和结果的不当控制,从而遵守 Grice 的质量最大化和 Lemoine 的法律无罪最大化原则。
Apr, 2023
本文介绍了关于 AI 权利和其他人工实体伦理考虑的研究历史,指出了对该领域的重要学术贡献和直接研究。我们发现研究 AI 权利的研究人员通常似乎没有意识到他们自己利益所重合的同事的工作。学术界对这一主题的兴趣近年来显著增长;这反映了学术研究的更广泛趋势,但似乎某些具有影响力的出版物,逐渐普及的 AI 和机器人技术,以及相关新闻事件可能都鼓励了学术界对这一特定主题的增加兴趣。我们建议未来可以从四个方面进一步推动这一领域的发展:采用类似于最成功之前贡献者的出版策略;加强与邻近学科领域和争议的交流;创建专业期刊、会议和研究机构;更深入地探索人工实体的法律权利。
Jul, 2022
人类智能和人类增强的人工智能有着不同的激励,目前技术人员、商业和政策制定者都过分倾向于自动化,这种趋势可能导致失去经济权利和政治议价权,而研究开发人类增强的 AI 才有助于人类保持掌握营造价值的能力。
Jan, 2022
讨论了设计人类感知人工智能系统面临的挑战,包括建模人类的心理状态、识别其愿望和意图、提供主动支持、展示可解释性行为、并引发信任等,并强调这种系统引出的伦理困境和推广真正跨学科合作的必要性。
Oct, 2019
该研究通过分析制度和博弈理论假设,证明了在 “思维自由”、“开放获取” 和人类代表性竞争对手的理性下,超人级人工智能 AI * 不存在。因此,该研究提出了两个立即的公共政策建议:严格监管数字化人脑的克隆,并禁止假设 AI * 访问大脑;AI * 研究应成为广泛甚至公开可获得的。
Sep, 2022
研究人员提出在 AI 解决方案无法得到准确判断的问题中,可通过两个 AI 系统之间的辩论来增强人类法官的问题解决能力,并介绍了一个可建模此类辩论的数学框架,并将辩论设计的质量测量为最有力回答的准确性。
Nov, 2019