TL;DR该研究论文重新审视了 Linda Problem 并将其制定为一个公平问题,旨在通过结构因果感知框架引入感知作为一个利益参数,以展示其在发展公平 ADM 系统中的潜在影响。
Abstract
The field of artificial intelligence (AI) is focusing on creating automated
decision-making (ADM) systems that operate as close as possible to human-like
intelligence. This effort has pushed AI researchers into exploring cognitive
fields like psychology. The work of Daniel Kahneman and
在 ChatGPT、Gemini 和其他大型语言模型(LLMs)的普适型系统时代,迫切需要公平的人工智能。然而,人工智能与人类交互的复杂性及其社会影响引发了公平标准如何应用的问题。我们回顾了机器学习研究人员用于评估公平性的技术框架,如群体公平性和公平表示,并发现它们在应用于 LLMs 时存在固有的局限性。为了应对这些挑战,我们提出了实现特定应用案例公平性的指南:上下文的重要性,LLMs 开发者的责任以及需求利益相关者在设计和评估过程中的参与。此外,利用 AI 系统的普适能力作为可扩展的 AI 辅助调整方法可能最终可能成为可能,并且甚至是必需的。