鉴定和减轻生成式人工智能的安全风险
我们生活在生成式人工智能(GenAI)的时代。Deepfakes 和大型语言模型(LLMs)是 GenAI 的两个例子。然而,由于生成性质,它们的道德使用成为一个重要关注点。此篇文章试图探究它们之间的相互关系。
Feb, 2024
生成式 AI 模型的应用带来了数字化机会,同时也引入了新的 IT 安全风险。在将生成式 AI 集成到工作流程中之前,公司、机构、开发者和操作员都应进行风险分析,并相应地调整和采取安全措施。
Jun, 2024
通过对现有学术文献和大约 200 起滥用报告事件的定性分析,我们提出了一种基于深度学习和多模态人工智能的滥用策略分类方法,并揭示了滥用的关键模式、潜在动机和攻击者如何利用系统能力的方式。
Jun, 2024
本文提出方案利用 Cyber Kill Chain 对 Generative Artificial Intelligence 技术进行威胁抵御,通过强化侦测、欺骗以及对抗等多种策略有效减轻 GenAI 引起的网络攻击风险。
Jun, 2023
本研究通过系统调查、基于文本挖掘的全球和国家指南、独立研究以及八十所大学层面的指导,提供了对教育中生成式人工智能(GAI)和大型语言模型(LLMs)的机会和挑战进行细致的理解。研究强调了在这些技术的整合过程中平衡方法的重要性,以 harness 利用其技术优势的同时,考虑伦理问题,并确保公平的获取和教育结果。最后,本文提出了促进负责任创新和道德实践,指导将 GAI 和 LLMs 整合到学术中的建议。
May, 2024
本文研究探讨了生成 AI 技术中,AI 加入真实数据之后可能会产生回馈循环并导致未来模型的降级和多样性降低的情况,从而产生社会影响。同时,对于如何缓解这种回馈循环以及降低未来技术模型降级的影响也提出了相关问题。
Jun, 2023
该论文探讨利用巨大的大语言模型生成特定任务训练数据的先进技术,介绍了方法论、评估技术和实际应用,并讨论了当前的限制和未来研究的潜在路径。
Mar, 2024
生成式人工智能和大型语言模型的出现标志着人工智能领域的范式转变。本文分析欧盟背景下产生式人工智能和大型语言模型的法律和监管影响,着重分析责任、隐私、知识产权和网络安全等方面。它批判性地审视现有和拟议的欧盟立法,包括《人工智能法案(AIA)》草案,以应对生成式人工智能和大型语言模型所带来的独特挑战。本文确定了立法框架中的潜在差距和不足,并提出建议,以确保生成模型的安全合规部署,使其与欧盟不断演变的数字环境和法律标准保持一致。
Jan, 2024