从 ChatGPT 到 ThreatGPT:生成式人工智能在网络安全与隐私中的影响
该论文采用一种方法来研究生成式 AI 工具对社会的影响,主要关注 ChatGPT 这一案例,评估其对社会各个领域的潜在影响,并阐述综合文献回顾的研究结果,包括正面效应、负面效应、新兴趋势和机遇领域,该分析旨在提供深入讨论的见解,从而激励政策、规范和负责任的发展实践,促进以人为中心的人工智能。
Mar, 2024
该研究论述了 ChatGPT,这是一个利用主题建模和强化学习生成自然回复的人工智能聊天机器人。通过探索从 GPT-1 到 GPT-4 的升级路径,讨论模型的特点、局限性和潜在应用,该研究旨在揭示将 ChatGPT 融入我们日常生活中可能存在的安全、隐私和伦理问题,并分析这些领域的开放问题,呼吁共同努力确保安全和道德无可争议的大型语言模型的发展。
Jul, 2023
本研究调查了生成式人工智能技术(特别是 ChatGPT 等生成式预训练变形器模型)对网络安全的影响,并提出了针对大学的课程改革的建议,以满足行业不断发展的需求。我们的研究强调了理解生成式人工智能的 “心智模型” 与人类认知之间的对齐的重要性,以及根据布卢姆分类对生成式人工智能能力进行人类技能提升。通过分析当前教育实践、课程与行业需求的对齐,我们得出了一个结论,即提供网络安全等实践性学位的大学应密切与行业需求对齐,并接受不可避免的生成式人工智能革命,同时应用严格的伦理监督以确保负责任地使用生成式人工智能。我们提出了一系列关于更新大学课程、促进大学的灵活性、促进学术界、行业和决策者之间的合作以及评估和评价教育成果的建议。
Mar, 2024
本文探讨了使用 ChatGPT 作为生成 AI 所引起的道德问题,并基于人性化的人工智能(HCAI)框架提出了应对方法。使用 HCAI 框架来确保可靠、安全、值得信赖的人工智能,以减轻 ChatGPT 的误用或滥用,并推荐最佳使用(创意写作,非创意写作,教学和学习)。同时,强调了个体和社会福利的重要性。
Apr, 2023
本文探讨了聊天机器人从 ELIZA 到 GPT-4 的发展历程及其工作机制,分析了聊天机器人所面临的网络安全威胁和漏洞,阐述了聊天机器人对诸如恶意代码、网络钓鱼邮件、零日攻击和宏和 LOLBIN 的生成等网络安全问题所带来的风险和漏洞,进而探讨了应对这些威胁和漏洞的具体策略和措施。
May, 2023
本文针对 AI 基模型带来的 AI 生成内容(AIGC)涉及的工作原理、安全和隐私威胁、最新解决方案、以及未来挑战等方面做出了深入调查,主要讨论了 AIGC 的架构、工作模式和关键特征、安全和隐私威胁、道德和社会影响,最后针对 AIGC 未来的挑战和研究方向进行了总结。
May, 2023
本文提出方案利用 Cyber Kill Chain 对 Generative Artificial Intelligence 技术进行威胁抵御,通过强化侦测、欺骗以及对抗等多种策略有效减轻 GenAI 引起的网络攻击风险。
Jun, 2023
本文旨在提供有关 ChatGPT 的安全风险的概述,包括恶意文本和代码生成、私人数据披露、诈骗服务、信息收集和生成不道德内容等。我们进行了一项实证研究,检验了 ChatGPT 内容过滤器的有效性,并探讨了绕过这些保护措施的潜在方式,展示了即使当有保护措施时,LLMs 仍存在的伦理和安全风险。基于对安全风险的定性分析,我们讨论了应对这些风险的潜在策略,并向研究人员、决策者和行业专业人员提供有关像 ChatGPT 这样的 LLMs 所面临的复杂安全挑战的信息。本研究对 LLMs 的伦理和安全影响的持续讨论做出了贡献,强调了在此领域需要继续进行研究的必要性。
May, 2023
ChatGPT 是一种基于 Transformer 架构的大型语言模型,能够在对话环境中生成类似人类的回答。它具有广泛的应用领域,但也引发了伦理和社会等方面的担忧。本文概述了 ChatGPT 的架构和训练过程,并提出了一些技术、监管、教育和伦理等方面的建议,以最大化其益处并尽量减少负面影响。
Feb, 2024
该调查研究了生成性人工智能模型在教育领域的潜在应用和影响,并就教育环境中的实际应用、挑战和新兴趋势进行了综合和严格的评估,旨在为人工智能与教育之间的关系作出贡献。
Nov, 2023