以亚当・斯密的客观旁观者为蓝本的人工智能道德代理
通过强调人工智能的伦理和道德行为在决策方面的关键作用,本文讨论了在构建具有道德性的机器时需要考虑的不同方面,包括最相关的道德范式和挑战。我们还讨论了自上而下和自下而上的设计方法以及情感和知觉在道德中的作用,并提出了融合道德范式的混合方法和分层方法的解决方案,强调治理与政策在人工智能伦理学中的关键性,并确保我们为道德机器设置的任务是可实现的,实现了道德行为并获得了优秀的人工智能。
Oct, 2023
人们对人工智能系统的道德评价是否与人类生成的道德评价相似的问题对于人工智能的进展具有重要意义。我们进行了一项改编自 Allen 等人(2000)提议的改进型道德图灵测试(m-MTT),通过要求参与者区分真实的人类道德评价和由一个流行的先进 AI 语言模型 GPT-4 进行的评价,代表性的 299 名美国成年人首先在对源泉不知情的情况下对道德评价的质量进行了评分。他们惊人地发现,在几乎所有维度上,包括美德、智力和可靠性,他们评价 AI 的道德推理质量高于人类的,这与 Allen 等人所称的相对 MTT 相一致。接下来,在确定每个评价的来源(人类还是计算机)的任务中,人们的表现明显高于偶然水平。虽然 AI 没有通过这个测试,但不是因为它的道德推理不如人类,而是可能因为它的被认为是卓越的特质以及其他可能的解释。能够产生被认为在品质上优于人类的道德回应的语言模型的出现引起了人们对人们可能不加批判地接受可能有害的道德指导的担忧。这种可能性突显了在道德问题上对生成语言模型进行保护的必要性。
Apr, 2024
该研究使用交互式定理软件,实现基于康德哲学传统的自动化康德伦理学,并开发了一个测试框架来评估其在伦理判断中的表现,这是创建哲学成熟的伦理人工智能代理的早期步骤,它在康德哲学文献的基础上可以做出复杂的伦理问题的细致判断。
Jul, 2022
通过实验,我们发现人们对于更具人类特征的机器人的判断更加接近对待人类的方式,主要受到机器的代理能力的影响,这表明人们对人和机器的差异性判断可以通过心理模型的演变来解释。
Oct, 2022
通过对 101 轮独裁者游戏的研究,我得出结论:人工智能在游戏中表现出强烈的公平意识,这取决于它认为与之互动的人是否值得信任;在指定为受托人时,框架对人工智能给予接收者的数量有很大影响;而且也有证据表明人工智能可能像人类一样对不平等具有厌恶感。
Feb, 2024
为了能够有效地与人类协作并确保安全,人工智能系统需要能够理解、解释和预测人类的道德判断和决策。为了解决这一挑战,本文提出了一个基于最新的道德心理学研究的规则破坏问题回答 (RBQA) 挑战集,并使用最先进的大型语言模型 (LLMS) 作为基础,提出了一个新的 MORALCOT 策略以预测人类道德判断。
Oct, 2022
该研究提出了使用认知模型作为模拟人类代替人类与人工智能交互和收集反馈以提高训练效率的方法,并在道德决策制定方面实践,表明这是计算认知科学对人工智能的重要贡献。其中使用强化学习代理与认知模型交互学习公平性,并能理性调整行为,以此为例说明认知模型作为人类模拟器在训练人工智能系统方面是有效的。
Oct, 2022
本文探讨了 AI 和 NLP 领域中的伦理学问题,重点关注了自动化伦理判断的 Delphi 模型,并提出了批判性的观点和如何通过透明度、民主价值观和简单明了的问责机制来推动机器伦理学的发展。
Nov, 2021
通过自描述提供研究 AI 系统是否具有道德意义的内在状态,讨论了自描述在当前系统和人类中的适用性,并提出了培训模型回答关于自身的问题以实现内省式能力的方法,同时探讨了评估这些技术成功程度的方法和相关挑战。
Nov, 2023