我们生活在生成式人工智能(GenAI)的时代。Deepfakes 和大型语言模型(LLMs)是 GenAI 的两个例子。然而,由于生成性质,它们的道德使用成为一个重要关注点。此篇文章试图探究它们之间的相互关系。
Feb, 2024
生成式人工智能技术(GenAI)可能被用于积极和消极目的,这篇论文讨论了 GenAI 所带来的双重用途困境,并提出了针对此问题的短期和长期目标,旨在引发学术界对此重要主题的深入讨论。
Aug, 2023
本研究通过系统调查、基于文本挖掘的全球和国家指南、独立研究以及八十所大学层面的指导,提供了对教育中生成式人工智能(GAI)和大型语言模型(LLMs)的机会和挑战进行细致的理解。研究强调了在这些技术的整合过程中平衡方法的重要性,以 harness 利用其技术优势的同时,考虑伦理问题,并确保公平的获取和教育结果。最后,本文提出了促进负责任创新和道德实践,指导将 GAI 和 LLMs 整合到学术中的建议。
May, 2024
本文介绍了人工智能(AI)领域中的基础和大型语言模型(LLMs)等技术的限制和风险,并且警告使用这些技术会带来的伤害。
Jul, 2023
探索大型语言模型(LLMs)的风险、潜在威胁和可行解决方案,以在生成 AI 时代中揭示准确性的各个方面。
Oct, 2023
该论文探讨利用巨大的大语言模型生成特定任务训练数据的先进技术,介绍了方法论、评估技术和实际应用,并讨论了当前的限制和未来研究的潜在路径。
Mar, 2024
生成式人工智能和大型语言模型的出现标志着人工智能领域的范式转变。本文分析欧盟背景下产生式人工智能和大型语言模型的法律和监管影响,着重分析责任、隐私、知识产权和网络安全等方面。它批判性地审视现有和拟议的欧盟立法,包括《人工智能法案(AIA)》草案,以应对生成式人工智能和大型语言模型所带来的独特挑战。本文确定了立法框架中的潜在差距和不足,并提出建议,以确保生成模型的安全合规部署,使其与欧盟不断演变的数字环境和法律标准保持一致。
Jan, 2024
通过对现有学术文献和大约 200 起滥用报告事件的定性分析,我们提出了一种基于深度学习和多模态人工智能的滥用策略分类方法,并揭示了滥用的关键模式、潜在动机和攻击者如何利用系统能力的方式。
Jun, 2024
通过讨论伦理人工智能原则和指南的使用,本文旨在解决高级大型语言模型(LLMs)的伦理问题。
Dec, 2023
利用启发式方法,本研究发现 1,140 个通过 Twitter botnet 使用 ChatGPT 生成人类风格内容的虚假个人的密集集群,并通过人工注释验证。ChatGPT 生成的内容宣传可疑网站并传播有害评论。尽管 AI botnet 中的账户可以通过其协调模式检测到,但目前最先进的大语言模型内容分类器无法区分它们和真实用户账户。这些发现强调了 AI 助推社交机器人带来的威胁。