- REQUAL-LM: 大规模语言模型中的可靠性与公平性聚合
通过聚合实现可靠和公平的大型语言模型输出,而无需专门的硬件或重训练,REQUAL-LM 方法在解决 LLM 可靠性和公平性方面展现了很好的效果。
- COLINGChatGPT 对自然语言解释质量的评级如人类一样:但在哪些尺度上?
AI 的透明度和责任感的需求增加了,因为对 AI 决策背后的推理进行自然语言解释(NLE)对于澄清重要,但通过人的判断进行评估复杂且资源密集,由于主观性和对细粒度评分的需求。本研究探索了 ChatGPT 与人类评估之间的一致性,涵盖了二元、 - 正念解释: XAI 研究中 思维归因的普及率和影响
AI 系统的介绍应该避免强调心智属性,以明确传达人类的责任。
- AAAI广义形式博弈中的责任
该论文提出了一种将反事实责任和看管责任相结合的定义,阐述了责任的概念并研究了两种责任形式之间的鸿沟,表明在考虑到高阶责任时,这两种责任形式可以被规定在每种可能的情况下。
- AI 抓握:面向设计师的实践训练
人工智能 (AI) 和机器学习 (ML) 被广泛地应用于物理和数字产品,创造了前所未有的互动和功能机会。然而,在这个创意领域中,设计师们面临一个挑战,即在技术的可能性和人类互动关切之间取得平衡。本文调查了探索和思考 AI 系统互动特点、独特 - 人工智能的承诺与危险 -- 紫队合作为一条平衡的前进之路
人工智能(AI)带来了巨大的好处,但也存在双重用途潜力、偏见和意外行为的风险。本文回顾了不透明且无法控制的 AI 系统的新兴问题,并提出了一个称为紫色团队合作的综合框架,以开发可靠和负责任的 AI。紫色团队合作将对抗性漏洞探测(红队)与安全 - 解读人工智能的责任
为了在涉及 AI-enabled 系统的复杂情况中理解责任应当在何处,首先我们需要有一个足够清晰和详细的跨学科的责任词汇;本文通过以 'Actor A 对 Occurrence O 负责 ' 的三部分表述,识别了 A、负责和 O 的有效组合 - CValues: 从安全到责任,衡量中国大型语言模型的价值
本文提出了 CValues,首个用于评估大型语言模型(LLMs)人类价值观一致性的中文评估基准,该基准通过在十个场景中手动收集对抗性安全提示和由专业专家引导的八个领域的责任提示来衡量 LLMs 的一致性能力。研究发现,虽然大部分中文 LLM - 语言迷宫:对 AI 话语中使用的术语进行建设性批评
人工智能领域的术语问题成为一个重要的议题,本文通过分析人工智能辩论的核心概念,提出更贴切的术语,以促进更有成果的讨论。
- 保险体验对公平机器学习的启示:责任、性能和聚合
本文探讨了保险可以作为机器学习系统的社会情境类比,从而让机器学习学者借鉴丰富、跨学科的保险文献,并探讨了保险中的不确定性、公平性和责任与机器学习中的公平性之间的联系,进而挑战了公平性的校准化概念,并提出了在机器学习文献中被忽视的责任、履行能 - 科学家对于生成式人工智能在其领域中潜力的看法
研究发现生成式 AI 技术有潜力改变科学家的实践方法、加速科学发现并提供科学教育,但是这也引起了对于技术责任的担忧。
- 解决问题,收获利益 ——AI 监管争议的系统回顾
本文系统综述了国际上共 73 篇针对人工智能 (AI) 监管的学术论文,重点关注社会风险、监管责任和可能的政策框架,包括基于风险和基于原则的方法。研究发现 AI 领域的复杂性,以及其尚未成熟和缺乏明确性。通过与欧洲 AI 监管建议的比较,本 - 算法失误时该谁负责?决策自动化、组织和责任
该研究概述了 ADS 在组织上下文中的决策制定,强调责任问题,并提供了一些有待研究的问题和研究空白。同时,为实际应用提供了一套指南和辅助工具,以帮助用户确定 ADS 使用中的责任归属和分配。
- 可解释性与问责制决策算法的冲突
本文旨在探讨可解释人工智能是否能帮助解决自主 AI 系统所提出的责任问题,并得出结论,提供一系列建议如何处理算法决策的社会技术过程,并提出采用严格的法规来防止设计者逃避责任。
- 人机交互的实用函数
本文研究人机交互环境下的认知机器人建模问题,提出了一种基于效用的模型来管理机器人的行为,通过效用聚合函数将机器人对事态的责任嵌入到效用模型中。
- 个性化新闻推荐:方法与挑战
本文全面总结了个性化新闻推荐的技术与挑战,阐述了解决每个核心问题的技术及其所面临的挑战,介绍了公开数据集和评估方法,讨论了提高个性化新闻推荐系统的责任感的关键点,提出了值得进一步研究的几个方向,以期帮助读者全面了解该领域。
- 团队计划中的因果关系、责任和责备
团队计划的失败原因和每个代理人的责任和指责程度可以通过使用结构方程和因果关系等定义确定。同时,该研究还在关注的团队计划中证明了新的结果,即可以在多项式时间内计算因果关系和责任 - 指责程度。
- 查询答案和非答案的因果关系和责任的复杂性
该论文研究了查询的答案和非答案的原因和责任的计算方法以及 P 和 NP 的情况和 LOGPACE 的完整性,并证明了某些查询中的因果关系可以通过关系查询在多项式时间内计算。
- 什么导致了系统满足规格要求?
本文提出了一种利用 Halpern 和 Pearl [2001] 的因果关系定义资状度的覆盖度算法,并引入了组件责任度的概念来量化其对需求满足的重要性,以扩展现有的覆盖度技术。
- 责任与归咎:一种结构模型方法
本文提出新的因果关系定义,以考虑 A 对 B 的责任程度与 A 的认知状态相关联的程度,并定义了一种责任程度的概念,用于衡量 A 对 B 的责任程度,从而得出预期的 A 对 B 的责任程度。