RatGPT:将在线 LLMs 转化为恶意软件攻击代理
本文旨在提供有关 ChatGPT 的安全风险的概述,包括恶意文本和代码生成、私人数据披露、诈骗服务、信息收集和生成不道德内容等。我们进行了一项实证研究,检验了 ChatGPT 内容过滤器的有效性,并探讨了绕过这些保护措施的潜在方式,展示了即使当有保护措施时,LLMs 仍存在的伦理和安全风险。基于对安全风险的定性分析,我们讨论了应对这些风险的潜在策略,并向研究人员、决策者和行业专业人员提供有关像 ChatGPT 这样的 LLMs 所面临的复杂安全挑战的信息。本研究对 LLMs 的伦理和安全影响的持续讨论做出了贡献,强调了在此领域需要继续进行研究的必要性。
May, 2023
利用启发式方法,本研究发现 1,140 个通过 Twitter botnet 使用 ChatGPT 生成人类风格内容的虚假个人的密集集群,并通过人工注释验证。ChatGPT 生成的内容宣传可疑网站并传播有害评论。尽管 AI botnet 中的账户可以通过其协调模式检测到,但目前最先进的大语言模型内容分类器无法区分它们和真实用户账户。这些发现强调了 AI 助推社交机器人带来的威胁。
Jul, 2023
利用大型语言模型进行自动化检测,发现现有的大型语言模型可以生成可信地伪造知名品牌的网络钓鱼邮件和网站,并且可以使用未修改的版本进行此类攻击。为了应对这一问题,建立了一个基于 BERT 的自动检测工具,可以在早期检测到恶意提示,以防止大型语言模型生成网络钓鱼内容,对于网络钓鱼网站提示可以达到 97% 的准确率,对于网络钓鱼邮件提示可以达到 94% 的准确率。
Oct, 2023
研究论文对大型语言模型(LLMs)在系统安全领域中的影响和局限性进行了探讨,发现 ChatGPT 不仅在生成代码方面有出色的能力,还在理解用户提供的自然语言指令、推理程序的控制和数据流、生成复杂数据结构以及反汇编汇编代码等方面展示了强大的能力。研究表明,GPT-4 在大多数安全任务中相较于 GPT-3.5 有显著改进,同时也确定了 ChatGPT 在安全相关任务中的某些限制,例如处理长代码上下文的能力受限。
Dec, 2023
本文介绍了如何利用大型语言模型 (LLMs) 和尤其是 ChatGPT 进行编程、源代码分析和代码生成,研究了 LLMs 和 ChatGPT 在代码创建、代码文档化、漏洞检测、重构等多个领域中的应用,并指出它们在编程社区中的使用有望得到进一步推广。
Jun, 2023
该研究探讨了 ChatGPT 与加密货币欺诈之间的复杂相互作用,展示了通过操纵 ChatGPT 提示来影响结果、绕过道德条款并实现特定欺诈目标的方法,强调了对于初学者欺诈者来说 ChatGPT 可能是有价值的指导者,以及在密码货币欺诈的背景下理解、安全地使用复杂语言模型的重要性,同时指出在数字货币领域负责任和道德使用 LLMs 的重要性,以识别潜在风险并解决道德问题。
Jun, 2024
通过对 OpenAI 的 ChatGPT 进行定性研究,发现大规模语言模型的伦理风险主要包括偏见性和毒性,当前的基准测试无法解决这些问题,为了避免语言模型应用中出现伦理风险,需要制定可靠的基准测试和实施设计。
Jan, 2023
ChatGPT 在乌克兰战争等其知识范围之外的事件中生成的消息可以与由人类撰写的消息以及 ClaimReview 中的关于战争的声明无法可靠地区分开来。
Feb, 2024
通过对 24 名职业软件工程师使用 ChatGPT 一周期间的对话和整体体验进行定性分析,发现他们更多地使用 ChatGPT 获取解决任务的指导或对抽象主题的学习,并提出了一个理论框架,指导今后关于职业软件工程师使用 LLM 的学术讨论和设计未来经验性研究。
Apr, 2024
本研究的主要目的是提供 ChatGPT 检测的最新技术的全面评估,同时我们评估了其他 AI 生成的文本检测工具,以检测 ChatGPT 生成的内容。此外,我们还创建了一个基准数据集用于评估各种技术在检测 ChatGPT 生成内容方面的性能。研究结果表明,现有方法都不能有效地检测 ChatGPT 生成的内容。
Apr, 2023