借助大型语言模型实现 FAIR 数据空间
大型语言模型(LLMs)中的进展凸显了道德实践和数据完整性的必要性。我们介绍了一个将 FAIR(可发现、可访问、可互操作、可重用)数据原则嵌入到 LLM 训练中的框架。这种方法标志着向符合 FAIR 标准的实践的转变。我们的框架提出了将 FAIR 数据原则整合到 LLM 训练中的指导方针。这一倡议包括研究人员和开发人员的检查清单。我们还通过一个案例研究展示了其实际应用,重点是在符合 FAIR 原则的数据集中识别和减轻偏见。这项工作是对人工智能伦理和数据科学的重要贡献,倡导在 LLMs 中采用平衡和道德的培训方法。
Jan, 2024
对公平语言模型进行了全面的综述,介绍了现有文献中关于公平语言模型的最新进展,讨论了导致公平语言模型偏见的因素,总结了评估偏见的度量标准和促进公平的现有算法,并提供了用于评估偏见的资源。
Mar, 2024
大型语言模型中的社会偏见评估和缓解技术的综述,介绍了社会偏见与公平的概念、评估指标和数据集,以及介绍了干预方法的分类和研究趋势,帮助研究人员和实践者更好地理解和防止偏见在大型语言模型中的传播。
Sep, 2023
通过自然语言处理方法比较元数据的自然语言描述,提供了一种数学相似度量度,可用于分析各种元数据,通过深入研究多种大型语言模型,展示了算法在公开可用的研究数据集上 qualitatively 和 quantitatively 的有效性,从而大幅度减少了人工整理自然语言元数据的工作量。
Jul, 2023
大语言模型带来了强大的性能和发展前景,并广泛应用于现实世界。然而,这些模型可能从未经处理的训练数据中捕捉到社会偏见,并将其传播到下游任务。本文全面回顾了关于大语言模型中的公平性的相关研究,介绍了中等规模的模型和大规模的模型分别从内在偏见和外在偏见的角度引入了评估指标和去偏方法,并讨论了公平性发展中的挑战和未来方向。
Aug, 2023
利用大型语言模型将嵌入向量转化为可理解的叙述,解决了嵌入向量难于解释和使用的问题,增强了概念激活向量、通信新的嵌入实体和解码推荐系统用户偏好等任务的能力。
Oct, 2023
利用大型语言模型(LLM)在各种下游应用中进行分类等工作至关重要,通过公平性可以确保包容性,基于种族、性别等因素实现平等代表和促进负责任的人工智能部署。本研究引入了一个框架来概述与各种公平性定义相一致的公平性规定,每个定义均由不同程度的抽象调控。我们通过在流程中将公平规则纳入,并使用 RAG 选择上下文演示来探索上下文学习的配置和过程。通过与不同 LLM 的实验比较,发现 GPT-4 在准确性和公平性方面的结果都优于其他模型。本研究是利用 LLMs 通过上下文学习实现预测任务公平性的早期尝试之一。
Feb, 2024
这是第一项研究应用大语言模型(LLMs)进行自动规划任务模型空间编辑的工作。我们探索了 AI 规划文献中研究的两种不同类型的模型空间问题,以及 LLM 对这些任务的影响。我们通过实验证明了 LLM 的性能与组合搜索(CS)的对比情况,以及 LLM 作为独立模型空间推理器以及作为与 CS 方法结合的统计信号的双阶段过程的一部分时的性能。我们的实验结果表明,LLM 在未来进一步探索规划任务中的模型空间推理的前景很有希望。
Nov, 2023
通过一系列的实验,我们发现大型语言模型在表格预测任务中往往会继承社会偏见,这从根源上影响了它们的公平性,并且通过标签反转等方法可以显著减少这些偏见。
Oct, 2023
本文提出了一种统一的数据创建流程,只需一个格式示例,适用于包括传统上问题较多的任务在内的广泛范围,通过实验证明使用指令跟随型大型语言模型创建的数据比使用人工标注的数据在分布外评估上表现更好(高达 17.5%),同时在分布内任务上保持可比较的性能,这些结果对于在现实世界中部署的自然语言处理系统的稳健性具有重要意义。
Oct, 2023