模型和数据卡片的自动生成:迈向负责任的人工智能的一步
通过提供 500 个问题 - 答案配对的数据集,我们研究了语言模型生成模型卡片的能力,并发现目前 ChatGPT-3.5、LLaMa 和 Galactica 对研究论文的理解和生成准确的文本回答方面存在显著差距。我们认为这个数据集可以用来训练模型自动从论文中生成模型卡片,减少人工工作量。
Sep, 2023
本文提出了一个名为 “模型卡” 的框架,以鼓励对训练的机器学习模型进行透明的报告,并为不同应用领域提供基准评估。模型卡旨在推进机器学习和人工智能技术的负责任民主化,提高了解 AI 技术工作情况的透明度。
Oct, 2018
本文提出了数据卡片 (Data Cards) 的概念以促进人性化的大规模模型开发过程中透明、有目的性和人性化的数据记录方法,数据卡片是必要的用户文档,提供关于机器学习数据各个方面的基本事实的结构化总结。本文描述了将数据卡片落实到实际应用的多种框架,并通过两个案例研究报告了支持领域、组织结构和观众群体的可采用特性,最后总结了 20 个数据卡片的部署经验。
Apr, 2022
通过对 AI 模型的 32,111 份文档进行全面分析,我们发现 AI 模型的文档化做法存在不足,其中环境影响、限制和评估等方面填写的比例最低,而训练部分则是填写最完整的。此外,我们发现数据的讨论相当重要,有时甚至比模型本身还要强调。通过将详细的模型卡添加到之前没有或只有少量模型卡的 42 个热门模型,我们发现添加模型卡 moderately 相关于周下载量的增加。通过大规模数据科学和语言学分析,我们的研究为分析模型文档化的社区规范和实践打开了新的视角。
Feb, 2024
在本研究中,我们结合欧洲联盟的最新监管努力和针对 AI 指南的初步提案与研究趋势:数据和模型卡片。我们建议在整个开发过程中使用标准化卡片来记录 AI 应用,主要贡献是引入了用例和操作卡片,并对数据和模型卡片进行了更新,以满足监管要求。我们的卡片引用了最近的研究以及监管规定的来源,并在可能的情况下提供了额外支持材料和工具箱的参考。我们的目标是设计出有助于从业人员在开发过程中开发安全 AI 系统的卡片,同时使得第三方对 AI 应用进行高效审计,易于理解,并在系统中建立信任。我们的工作结合了与认证专家、开发人员和使用开发的 AI 应用的个人的访谈洞察。
Jul, 2023
该研究论文通过对 EU AI 法案规定的技术文档的深入分析,以 AI 风险管理为重点,提出了 AI 卡作为一种新颖的综合框架,通过人机可读的格式来表示 AI 系统的预期用途,以实现透明性、可理解性和互操作性,为法律合规性和一致性评估任务提供了自动化工具的开发能力。
Jun, 2024
RiskCards 是一种针对语言模型应用的风险评估框架,通过提供清晰的风险路径、在众多风险分类中的美站、以及示例提示 - 输出对,为特定模型或应用场景制定风险和伤害的映射图,最终有助于风险景观的维护和易用性。
Mar, 2023
本研究使用统计分析和混合卡片排序评估了 Hugging Face 模型存储库中模型卡片和数据集卡片的记录实践,发现只有 39.62% 的模型和 28.48% 的数据集有文档记录,同时还观察到 ML 模型和数据集的伦理和透明度相关文档存在不一致性。
Dec, 2023
介绍了一种无代码、机器可读的开放数据集文档框架,关注负责任的人工智能考虑。旨在提高开放数据集的可访问性、可理解性和可用性,促进更容易发现和使用、更好理解内容和背景以及评估数据集的质量和准确性。该框架旨在简化数据集评估,帮助研究人员、数据科学家和其他开放数据用户快速识别满足其需求和 / 或组织政策或法规的数据集。论文还讨论了该框架的实施,并提供了最大化其潜力的建议。预期该框架将提高研究和决策中使用的数据的质量和可靠性,促进更负责任和值得信赖的人工智能系统的发展。
Dec, 2023