自动康德伦理学:一个忠实的实现
本文讨论了使用道德困境作为验证机制,以在伦理负荷情况下实施决策算法的伦理机器学习问题。作者认为这是哲学思想实验的误用,但还是可以适当地使用其它途径来解决伦理机器学习问题。
Mar, 2022
本文探讨了 AI 和 NLP 领域中的伦理学问题,重点关注了自动化伦理判断的 Delphi 模型,并提出了批判性的观点和如何通过透明度、民主价值观和简单明了的问责机制来推动机器伦理学的发展。
Nov, 2021
本文对人工智能伦理学的现状进行了批判性分析,并认为基于原则性伦理准则的这种治理形式不足以规范人工智能行业及其开发者。建议通过对人工智能相关专业人员的培训过程和增加对其行业的监管来实现根本性变革。为此,建议法律应从生物伦理学中获益,并将人工智能伦理学的探索成果在法律条文中加以明确规范。
Oct, 2022
通过将康德的义务论伦理学融入到人工智能对齐领域的公平性度量中,本文重新审视了康德对功利主义的批评,并主张公平原则应与康德的义务论框架相一致,以追求更加公正和正义的道德基础。
Nov, 2023
通过使用角色扮演游戏,如 Papers, Please 和 Life is Strange,我们提出设计一款系统性的角色扮演游戏,以培养人工智能中的道德美德,在现代人工智能技术的帮助下,我们激励实现这样的目标,并通过德性伦理学的视角检验他们的决策。
Aug, 2022
提出了一种使用预定义参数描述可能事故风险并将伦理价值论整合到多种决策规则中的自动驾驶决策方法,旨在为自动驾驶车辆的决策制定提供一个评估工具,以弹性满足人们对道德行为的期望,并提供一种社会可接受性评估。
Aug, 2023
本文探讨什么样的道德机器可以基于计算系统的能力,分析了基于后果主义、义务论和德性伦理学的一系列道德问题,揭示了其中的复杂性,最终提出了 Moral Tractability Thesis(MTT)。
Feb, 2023
本研究通过哲学伦理观点、技术角度以及政治视角三个不同的角度探讨了伦理人工智能技术设计实施,旨在发掘伦理人工智能技术的长期影响和预期成果,在此基础上提出了一种新的政治角度的框架,探讨了其上下结合和混合技术的方式,最终总结了伦理人工智能技术发展的策略和理念。
Apr, 2022