道德机器还是多数暴政?
该研究提出一种基于机器学习和计算社会选择的自动化道德决策方法,该方法通过学习社会偏好的模型,在运行时有效地聚合这些偏好以识别出一种合适的选择。该论文还提出了一种新的理论 - 交换支配有效投票规则,并在道德机器网站上收集的偏好数据的基础上实现和评估了一个在自主车辆领域进行道德决策的系统。
Sep, 2017
本文实现了 Maximizing Expected Choiceworthiness 算法,结合三种规范伦理理论为基础,生成最合适的输出,通过实验结果表明,MEC 算法能够在道德不确定性下制定出合适的道德判断,且能够产生与常识道德相对应或者更为适当的输出。
Jun, 2023
本文旨在调查研究自动化决策系统中机器学习算法存在的偏差及其与公平、隐私和分类准确性之间的关系,并综述了处理公平 - 准确性权衡的不同方法。作者通过实验分析了公平度量和准确度在现实世界场景中的关系。
Sep, 2022
本文讨论了使用道德困境作为验证机制,以在伦理负荷情况下实施决策算法的伦理机器学习问题。作者认为这是哲学思想实验的误用,但还是可以适当地使用其它途径来解决伦理机器学习问题。
Mar, 2022
通过对超过 50K 个大型语言模型 (GPT 3、GPT 3.5 和 Llama2) 在 81 个现实世界投票选举中的高逼真模拟,我们展示了不同大型语言模型在复杂的偏好选举格式中存在偏见和显著的不一致性,与简单且一致的多数选举相比。公平的投票聚合方法,如均等份额,被证明是双赢的:对人类来说更公平的投票结果与更公平的人工智能代表相结合。这一新颖的潜在关系对于在低投票率和由人工智能代表支持的进步场景中的民主韧性至关重要:通过恢复高度代表性且更为公平的投票结果,可以缓解棄權选民的问题。这些见解为科学家、政策制定者和公民提供了在解释和缓解民主创新中的人工智能风险方面的重要基础。
May, 2024
本文通过对两个人群标签数据集的系统研究发现,群体中存在个体提供有偏差的结果,采用简单的真值发现方法是次优的。同时,流行的真值发现算法并非万能,传统的公平性实现方法和纠正标签偏差的方法在这种情况下也无效。因此本文恳请设计新颖的具有偏差意识的真值发现算法来缓和这些问题。
Apr, 2023
本文探讨了 AI 和 NLP 领域中的伦理学问题,重点关注了自动化伦理判断的 Delphi 模型,并提出了批判性的观点和如何通过透明度、民主价值观和简单明了的问责机制来推动机器伦理学的发展。
Nov, 2021
提出了一种基于社交动态的常识道德学习模型,描述了道德困境的效用函数,用于解决抽象的道德维度上的交易,并通过贝叶斯模型刻画了个体和团体的社会结构,从有限的观测数据中推断出个体和团体的道德价值,并将该方法应用于自主车辆道德困境数据。
Jan, 2018
机器学习和深度学习的最新进展使得算法公平成为一个关注焦点,引发对影响某些个体或群体的歧视性决策的担忧。本调研综述基于 “容忍度” 提出了一个新的分类系统,揭示了算法决策中公平的微妙性。通过分析多个行业,我们的系统性综述揭示了算法决策与社会公平之间的关键见解。通过综合这些见解,我们勾勒出一系列新兴挑战,并提出未来研究和政策制定的战略方向,以推动该领域朝着更加公平的算法系统发展。
Apr, 2024