在当前人工智能时代,本研究讨论了负责任的机器学习数据集的重要性,并提出了一个评估数据集的负责任框架。通过公平性、隐私保护和合规性等方面的考虑,我们分析了超过 100 个数据集,发现没有一个数据集能免于公平性、隐私保护和合规性问题。我们对数据集的文档化提供了改进建议,并认为在全球范围内的数据保护法规定下,科学界的数据集创建方法需要修订。
Oct, 2023
本文研究了科学研究机构在负责人工智能设计和开发中的道德风险意识和准备情况,揭示了知识缺口和对可用人工智能伦理框架的意识有限。我们的研究结果显示,在没有适当的指导和管理下实施人工智能技术可能会带来潜在的道德风险,因此需要全面的策略来提高团队能力,支持负责、道德和包容的人工智能开发和部署。
Dec, 2023
通过全面调查和分析超过 120 篇学术论文及 AI 专家的文章,本研究提出了对结构化和非结构化数据集的 AI 数据就绪度 (DRAI) 测量指标的分类法,旨在为 AI 训练的质量和准确性提供新的标准。
Apr, 2024
本文提供了一个设计分类和子分类的方法,以便收集一个全面的数据集,以用于测试和开发鲁棒和公平的 AI 系统。
Nov, 2022
可靠度的强大测量是机器学习、法律和政策研究领域的重要课题,其中关键问题包括可靠度测量的设计准则、大规模和实践中的测量方法,以及与同一研究愿景相关的不同学科所涉及的研究问题。
Jun, 2024
通过系统评估医学数据集合,我们提出了 METRIC 框架,该框架包含了 15 个数据质量意识维度,帮助减少偏见、增加稳健性、提高可解释性,从而为医学中可信赖的人工智能奠定了基础。
Feb, 2024
我们提出了一个框架来自动化测量大型语言模型(LLMs)和相关产品与服务的负责任人工智能(RAI)指标。该框架基于现有的技术和社会技术专业知识,并利用了最先进的 LLMs(如 GPT-4)的能力来自动测量 LLMs 可能违反一系列 RAI 相关原则的伤害。该框架可以与领域特定的社会技术专业知识结合使用,以针对未来的新伤害领域创建测量。通过实施该框架,我们旨在推动更高级的伤害测量工作,并进一步促进 LLMs 的负责任使用。
介绍了一种无代码、机器可读的开放数据集文档框架,关注负责任的人工智能考虑。旨在提高开放数据集的可访问性、可理解性和可用性,促进更容易发现和使用、更好理解内容和背景以及评估数据集的质量和准确性。该框架旨在简化数据集评估,帮助研究人员、数据科学家和其他开放数据用户快速识别满足其需求和 / 或组织政策或法规的数据集。论文还讨论了该框架的实施,并提供了最大化其潜力的建议。预期该框架将提高研究和决策中使用的数据的质量和可靠性,促进更负责任和值得信赖的人工智能系统的发展。
本文介绍了阿姆斯特丹大学关于应用可重现性来教授公正、问责、机密和透明的人工智能课程,通过学生论文组和竞赛的形式,将理论和实践知识有机结合,并提出了相关授课指导方针。
Nov, 2021
提出了一个框架,将信息安全领域和安全开发生命周期的概念应用到人工智能系统的开发中,以解决公正度、可解释性和科技伦理等方面的问题。
Mar, 2022