构建有意识的人工智能的伦理问题
本文对人工智能伦理学的现状进行了批判性分析,并认为基于原则性伦理准则的这种治理形式不足以规范人工智能行业及其开发者。建议通过对人工智能相关专业人员的培训过程和增加对其行业的监管来实现根本性变革。为此,建议法律应从生物伦理学中获益,并将人工智能伦理学的探索成果在法律条文中加以明确规范。
Oct, 2022
本文介绍了关于 AI 权利和其他人工实体伦理考虑的研究历史,指出了对该领域的重要学术贡献和直接研究。我们发现研究 AI 权利的研究人员通常似乎没有意识到他们自己利益所重合的同事的工作。学术界对这一主题的兴趣近年来显著增长;这反映了学术研究的更广泛趋势,但似乎某些具有影响力的出版物,逐渐普及的 AI 和机器人技术,以及相关新闻事件可能都鼓励了学术界对这一特定主题的增加兴趣。我们建议未来可以从四个方面进一步推动这一领域的发展:采用类似于最成功之前贡献者的出版策略;加强与邻近学科领域和争议的交流;创建专业期刊、会议和研究机构;更深入地探索人工实体的法律权利。
Jul, 2022
本文提出了一种框架,用于描述人工智能领域中新兴的 “模仿模型” 所引发的伦理和社会问题,该模型不同于以往的模型,因为它是针对特定个体设计的,并且旨在进行交互而不仅仅是复制固定的预先计算出的行为。我们考虑了这些模型的不同应用场景,并考虑了不同参与者(包括模型的目标、模型的使用者和与之交互的实体)之间的影响。
Jul, 2022
发展分析和缓解策略,提供了一个初始框架来理解模型限制、尊重隐私、保密和版权、避免抄袭和政策违规、确保应用程序提供整体利益,并透明可重现地使用人工智能,以保护研究的完整性。
Jan, 2024
本文探讨了 AI 和 NLP 领域中的伦理学问题,重点关注了自动化伦理判断的 Delphi 模型,并提出了批判性的观点和如何通过透明度、民主价值观和简单明了的问责机制来推动机器伦理学的发展。
Nov, 2021
在后笛卡尔哲学基础上,我们不仅主张否定机器人的‘权利’,更否定机器人作为人类中介产物具有被授予权利的品质,同时认为如果以人的福利为首要关注点,机器系统带来的负面影响以及设计、销售和部署此类机器人的人员缺乏责任感,是 AI 中最紧迫的伦理问题,远比‘机器人权利’这个个第一世界问题更加紧迫,因为这关系到社会上最不发达的个体利益,如机器偏见、被机器人剥削的人类劳动力以及日益丧失的隐私等。
Jan, 2020
研究表明,围绕着五个伦理原则(透明度、正义与公平、非恶意行为、责任和隐私),出现了全球一致性的道德人工智能共识,提出了相关的指导原则和技术标准,同时应该充分融合伦理分析和实施策略的努力。
Jun, 2019
通过强调人工智能的伦理和道德行为在决策方面的关键作用,本文讨论了在构建具有道德性的机器时需要考虑的不同方面,包括最相关的道德范式和挑战。我们还讨论了自上而下和自下而上的设计方法以及情感和知觉在道德中的作用,并提出了融合道德范式的混合方法和分层方法的解决方案,强调治理与政策在人工智能伦理学中的关键性,并确保我们为道德机器设置的任务是可实现的,实现了道德行为并获得了优秀的人工智能。
Oct, 2023
本研究通过哲学伦理观点、技术角度以及政治视角三个不同的角度探讨了伦理人工智能技术设计实施,旨在发掘伦理人工智能技术的长期影响和预期成果,在此基础上提出了一种新的政治角度的框架,探讨了其上下结合和混合技术的方式,最终总结了伦理人工智能技术发展的策略和理念。
Apr, 2022