Feb, 2024
保证智能逻辑代理在可信与道德行为方面的表现
Ensuring trustworthy and ethical behaviour in intelligent logical agents
Stefania Costantini
TL;DR在这篇论文中,我们提出 / 改进 / 扩展了基于动态(运行时)逻辑的自我检测技术,以确保自主智能代理的可靠和道德行为。
Abstract
autonomous intelligent agents are employed in many applications upon which
the life and welfare of living beings and vital social functions may depend.
Therefore, agents should be trustworthy. A priori
autonomous intelligent agentstrustworthycertification techniquesmulti-agent systemsdynamic logic-based self-checking techniques
发现论文,激发创造
建立值得信赖的人工智能的关键:从 AI 原则,伦理,关键要求到负责任的 AI 系统和监管中去连接关系
提出了可信人工智能的七个技术要求和三个主要支柱的构建方法,并考虑到了系统整个生命周期中的所有过程和角色的可信性。同样,还介绍了通过审核过程提高人工智能系统的责任的概念,以及为了未来社会进步而必须面对的规制辩论。
May, 2023
基于原则的 AI 和自主系统伦理保证论证
该研究论文提出了一种基于四个核心道德原则的框架 - 一个伦理保证论证模式 - 来结构化系统化地推理出在特定情境下使用给定的人工智能 / 自主系统的道德可接受性,以此来扩展和应用保证论证方法,从而获得使用 AI 和自主系统时的可接受道德保证。
Mar, 2022
为开发更可信赖的自主系统建议重视 RE
该论文关注了 COMPLYING WITH THE EU AI Act 准则并开发实施 AI 系统的情况,分析了不同伦理准则的文献细节、伦理 AI 框架的适用性等问题,提出了伦理 AI 的限制以及进行可靠的 AI 开发的建议
May, 2023
自动康德伦理学:一个忠实的实现
该研究使用交互式定理软件,实现基于康德哲学传统的自动化康德伦理学,并开发了一个测试框架来评估其在伦理判断中的表现,这是创建哲学成熟的伦理人工智能代理的早期步骤,它在康德哲学文献的基础上可以做出复杂的伦理问题的细致判断。
Jul, 2022
人工智能与自我意识
本文探讨了人工智能在伦理、决策制定等方面引发的一些问题和讨论,并重点讨论 AI 代理人中的 “自我” 认知和其在决策制定方面的作用。作者旨在提倡建立拥有更强自我认知的 AI 代理人的研究。
Jan, 2022