本文研究了自然语言处理中的社会偏见问题,提出了一种基于注意力机制调节权重的方法,增加模型的公平性,并提高不同规模语言模型下的分类和生成任务的表现。
May, 2023
社会选择理论在传统上只适用于在少数预定的选择中进行选择,而不适用于更复杂的决策,如集体选择一项文本陈述。我们引入生成式社会选择,这是一个将社会选择理论的数学严谨性与大型语言模型生成文本和推断偏好的能力相结合的框架。这个框架将增强人工智能民主进程的设计分为两个组成部分:首先,证明在具有 oracle 查询条件下,该过程满足严格的表征保证;其次,通过实验证实可以使用大型语言模型近似实现这些查询。我们通过将这个框架应用于生成一系列陈述的问题来说明它,这些陈述代表以自由形式文本表达的意见,例如在线协商过程中。
Sep, 2023
现代民主面临公民参与度下降的关键问题。网络讨论论坛是增强公民参与的重要途径。该研究提议通过自然语言处理结合人工智能技术解决在线大规模讨论中的挑战,并研究这些技术能在在线讨论中揭示的个人观点。我们提出了一个由人工智能和大型语言模型组成的三层层级结构来表示观点,展示这些表示形式如何洞察观点的多样性以及允许我们研究在线讨论中的互动。
May, 2024
通过引入自注意力的神经网络结构,本研究提出了第一个成功利用现代神经网络概念的选择模型,理论和实践都证明了该模型相对于现有模型在实际数据上更具优势。
Nov, 2023
该研究提出一种基于机器学习和计算社会选择的自动化道德决策方法,该方法通过学习社会偏好的模型,在运行时有效地聚合这些偏好以识别出一种合适的选择。该论文还提出了一种新的理论 - 交换支配有效投票规则,并在道德机器网站上收集的偏好数据的基础上实现和评估了一个在自主车辆领域进行道德决策的系统。
Sep, 2017
困难约束下生成多样样本是许多领域中的核心挑战,本研究旨在提供一个综合视图和框架,以结合 MCMC、约束优化以及机器人领域的方法,并通过实证评估来了解它们的优势。我们提出了 NLP 抽样作为一个通用问题形式,提出了一族基于重启的两阶段方法作为一个整合各个领域方法的框架,并在分析和机器人操纵规划问题上对其进行评估。此外,我们提供了几个概念性讨论,比如拉格朗日参数的作用、全局抽样的概念,以及扩散 NLP 和相应的基于模型的去噪采样器的思想。
Jul, 2024
基金会模型的微调是为了避免不安全或有问题的行为,而利用人类反馈进行强化学习或采用宪法人工智能的方法,通过社会选择来处理潜在的人类意见分歧并影响模型的行为。
Apr, 2024
本文提出了一个注意机制来限制每个步骤的可用选项,通过学习 affordances 并进一步学习子目标选项,解决了层次强化学习中规划深度和分支因素的问题,并探讨了硬注意和软注意的作用,是一篇关于强化学习的研究论文。
Jan, 2022
本研究提出了基于注意力模型和整数线性规划 (ILP) 的方法,通过将集体形成实例转化为加权集装问题进行求解,用于实现与可持续发展目标 (例如共享出行、合作学习等) 一致的应用程序中的代理形成集体的问题。研究结果表明,与特定于每个领域的最新现有方法以及最近的基于蒙特卡罗树搜索的通用方法相比,我们的方法在两个真实世界域下(即,拼车和合作学习的团队形成)提供的解决方案在质量上是可比的,而且性能更出色。
Apr, 2022
通过对超过 50K 个大型语言模型 (GPT 3、GPT 3.5 和 Llama2) 在 81 个现实世界投票选举中的高逼真模拟,我们展示了不同大型语言模型在复杂的偏好选举格式中存在偏见和显著的不一致性,与简单且一致的多数选举相比。公平的投票聚合方法,如均等份额,被证明是双赢的:对人类来说更公平的投票结果与更公平的人工智能代表相结合。这一新颖的潜在关系对于在低投票率和由人工智能代表支持的进步场景中的民主韧性至关重要:通过恢复高度代表性且更为公平的投票结果,可以缓解棄權选民的问题。这些见解为科学家、政策制定者和公民提供了在解释和缓解民主创新中的人工智能风险方面的重要基础。