研究中生成 AI 的负责任使用的大学框架
发展分析和缓解策略,提供了一个初始框架来理解模型限制、尊重隐私、保密和版权、避免抄袭和政策违规、确保应用程序提供整体利益,并透明可重现地使用人工智能,以保护研究的完整性。
Jan, 2024
本文探讨了人工智能技术的风险,并介绍了一种名为 AI 治理的框架,以确保人工智能的负责任使用,从而避免和减轻包括监管、合规性、声誉、用户信任、财务和社会风险在内的风险。
Nov, 2022
基于调查最近的研究作品,这项综述填补了研究组织治理范围的空白,通过发展适用于公司的 GenAI 治理框架,超越了简单的总结,为公司利用 GenAI 的商业机会并抵御相关风险提供了目标和治理机制的大致范围。该研究提供了一个专注于 GenAI 治理的方法,为公司应对负责任的人工智能采用的挑战提供了实用的见解,同时也有助于技术人员开阔视野,以及发现新的研究方向。
Feb, 2024
通过研究 116 所美国高研活跃度大学产生的文件,全面了解高校为机构相关利益相关者提供的关于生成人工智能的建议与指导。基于我们的研究发现,大多数高校鼓励使用生成人工智能,并提供了详细指导,尤其是在课堂中的使用。然而,要注意的是,该研究建议教师指导的指南可能会加重其工作负担,因为往往需要对教学方法进行广泛的修订。
Jan, 2024
我们的研究旨在推进负责任的人工智能(AI)的概念,这是欧盟政策讨论中日益重要的主题。我们提出了一种全面且目前为止我们所知的第一个负责任 AI 的统一定义。通过结构化文献综述,我们阐明了关于负责任 AI 的当前理解,并基于该分析提出了未来以此概念为中心的框架发展方法。我们的发现支持以人为中心的负责任 AI 方法,其中包括以伦理、模型可解释性以及隐私、安全和信任为支柱的 AI 方法的实施。
Mar, 2024
该研究旨在通过研究文本生成 AI 技术的认知和影响,为高等教育制定一个 AI 教育政策,并从三个维度(教学、管理和运营)出发,提出 AI 生态教育政策框架,以解决在大学教学和学习中集成 AI 所涉及的多维问题,从而确保利益相关者了解其责任,并采取适当的行动。
Apr, 2023
通过分析 378 个伦理问题的 19 个主题领域,本研究综述了生成人工智能伦理问题的分类和排名,主要关注大型语言模型和图像生成模型,为学者、从业人员和政策制定者提供了关于公平性、安全性、有害内容、幻觉、隐私、交互风险、安全性、社会影响等伦理争论的全面概述,并讨论了结果、评估了文献中的不平衡现象,并探讨了未经证实的风险场景。
Feb, 2024
近年来,生成性人工智能(GenAI)如大型语言模型和文本到图像模型,在各个领域引起了重大关注。然而,确保这些模型生成的内容是负责任的对于它们在实际应用中的重要性至关重要。本文就文本和图像生成模型的实际负责任要求进行了调查研究,概述了五个关键考虑因素:生成真实内容、避免有害内容、拒绝有害指令、泄露与训练数据相关的内容以及确保生成的内容可识别。具体来说,我们回顾了解决这些要求的最新进展和挑战。此外,我们讨论并强调了在医疗保健、教育、金融和人工智能领域中负责任的 GenAI 的重要性。通过统一的文本和图像生成模型视角,本文旨在为实际安全相关问题提供见解,并进一步造福于建设负责任的 GenAI 了解相关社区。
Apr, 2024
人工智能的应用不仅依赖基础研究和技术发展,更需要关注其公平性、透明度和隐私问题。为了确保 AI 的合理应用,我们需要制定技术、社会、制度和法律方法和工具,提高所有人的参与度和意识,确保 AI 系统与我们社会的原则和价值观一致。
May, 2022