该研究使用交互式定理软件,实现基于康德哲学传统的自动化康德伦理学,并开发了一个测试框架来评估其在伦理判断中的表现,这是创建哲学成熟的伦理人工智能代理的早期步骤,它在康德哲学文献的基础上可以做出复杂的伦理问题的细致判断。
Jul, 2022
探讨人工智能对齐问题所涉及的哲学问题,明确目标并提出合理的原则方法来解决技术和规范的问题,从而达成公平的人工智能对齐。
Jan, 2020
正义是公平的概念。在没有统一接受的公平概念的情况下,如何为特定应用程序选择最适当的公平度量标准是实现可持续公正的关键问题。为了提供更多实用指导,作者提出了 “公平度量罗盘”,这是一个工具,可以形式化选择过程,并简化选择特定系统的最适当的公平定义。同时还可以解释和证明所采取公平措施的理由。
Feb, 2021
在这篇论文中,作者从道德哲学和元伦理学的研究中引用论述,提出了在当前没有一套能度量 AI 系统 “伦理性” 的指标和测量方式的情况下,将 AI 系统的考虑转变为 “价值观” 而非 “伦理学”,强调了价值观的相对性,这种思路会为开展 AI 系统的安全研究和有益研究提供新的方法。
Apr, 2022
通过使用 Rawls 公正作为选择公平措施及取得平衡的基础,我们可以为 AI 系统中的公平 / 准确度取得权衡提供一个有原则的选择,从而集中关注最脆弱的群体和最有影响该群体的公平措施。
Jul, 2023
本文提出了一种用于优化 AI 模型的框架和一些示例方法,根据人类政策制定者的偏好来平衡公平性、模型准确性等目标之间的平衡,以此来减少偏差和不公平。
Feb, 2020
通过分析次级调查数据,我们确定了人工智能在医疗领域中的伦理原则,并提出了一个基于功利主义伦理的新的理论框架来设计医疗领域的伦理人工智能。
Sep, 2023
本文实现了 Maximizing Expected Choiceworthiness 算法,结合三种规范伦理理论为基础,生成最合适的输出,通过实验结果表明,MEC 算法能够在道德不确定性下制定出合适的道德判断,且能够产生与常识道德相对应或者更为适当的输出。
Jun, 2023
通过对 101 轮独裁者游戏的研究,我得出结论:人工智能在游戏中表现出强烈的公平意识,这取决于它认为与之互动的人是否值得信任;在指定为受托人时,框架对人工智能给予接收者的数量有很大影响;而且也有证据表明人工智能可能像人类一样对不平等具有厌恶感。
Feb, 2024
本文从自然语言处理的角度,研究了康德的义务论伦理学中的普遍化原则和知情同意的尊重,提供了四个案例研究,以说明这些原则如何与自然语言处理系统结合。同时提出了避免这些系统中的道德问题的建议。
Oct, 2020