- LLM 风险与 AI 防护栏的现状
大型语言模型 (LLMs) 的部署与安全性及可靠性密切相关,然而它们在引入的同时也伴随着固有的风险,包括偏见、潜在的不安全行为、数据集污染、不可解释性、幻觉和非可重复性,为了避免潜在的危害,本研究探讨了部署 LLMs 所面临的风险,并评估了 - 开源生成型人工智能的风险与机遇
开源生成性人工智能(Gen AI)的应用在许多不同领域中具有革命性的潜力,可能引发对技术潜在风险的热烈讨论和对更严格监管的呼声。本研究使用三阶段框架对开源生成性人工智能模型的风险和机遇进行分析,并认为开源 Gen AI 的好处超过了风险,因 - 建立可靠的基础模型开发 AI 应用
深度学习模型信任度评估及保证,基于应用特定的风险评估方法,结合基础模型的特定风险,验证与确保基于基础模型开发的 AI 应用的信任度要求。
- 评估法律领域人工智能:借助开源解决方案弥合差距
本研究评估了通用人工智能在法律问答任务中的表现,突出了对法律专业人员和客户存在的重大风险。研究建议利用基础模型并加强领域专业知识以克服这些问题,并提倡创建开源法律人工智能系统以提高准确性、透明度和叙述多样性,从而解决通用人工智能在法律背景下 - 云计算模型中金融信息风险的智能预测与评估
云计算是一种分布式计算方法,将巨大的数据计算和处理程序转化为无数的小程序,通过由多个服务器组成的系统来处理和分析这些小程序以获得结果并返回给用户。本报告探讨了云计算与金融信息处理的交叉点,识别了金融机构在采用云技术时所面临的风险和挑战,并讨 - 人工智能的风险利益转化模型:通过实际解决方案和使用案例平衡风险和利益
人工智能的优势和风险,现在正在使用的与风险相关的模型,以及一种名为 “人工智能转型风险 - 收益模型” 的新框架。该模型着重于以实际和创新的解决方案为重点,其中利益超过风险,并以医疗保健、气候变化 / 环境和网络安全三个应用案例为例,展示了 - 安全可靠的 LLM 检测器:实施、应用和局限性
为了应对大规模语言模型的各种风险以及提供有效的人工智能治理,我们致力于创建和应用一套迅速、可靠的检测器模型,旨在识别各种有害输出,并探讨了其发展中的挑战和未来工作。
- 扩展激活引导至广泛技能和多重行为
目前的大型语言模型具有危险的能力,这些能力在将来可能变得更加问题。激活引导技术可以用来减少这些能力带来的风险。本文通过调查激活引导在广泛技能和多种行为方面的功效,首先比较了减少整体编码能力和 Python 特定能力对绩效的影响,发现调整更广 - AI 评估与红队行动的安全港湾
对生成式人工智能系统进行独立评估和红队测试对于识别风险至关重要,但主要人工智能公司用于阻止模型滥用的服务条款和执法策略对善意安全评估存在不利因素,因此一些研究人员担心进行此类研究或公开发现将导致账户暂停或法律报复。我们提议重要人工智能开发者 - 从 COBIT 到 ISO 42001:评估大型语言模型商业化中的机遇、风险和法规合规的网络安全框架
研究了四个主要的网络安全治理风险与合规性框架(NIST CSF 2.0、COBIT 2019、ISO 27001:2022 和最新的 ISO 42001:2023)对采用大型语言模型(LLMs)时的机会、风险和合规性的整合准备情况。通过定性 - 生成模型安全性:挑战与对策
探讨生成式人工智能所带来的独特安全挑战,并提出了管理这些风险的潜在研究方向。
- 机器学习防御与风险之间的意外相互作用
机器学习模型在安全、隐私和公平性方面不能忽视风险。已有的防御方法虽然可以缓解某些风险,但也可能增加其他风险的易受性。现有研究缺乏一个有效的框架来识别和解释这些意外交互。我们提出了一个这样的框架,基于过度拟合和记忆化的猜想来解释这些意外交互。 - 现代人工智能:新电力的应用、风险和趋势
人工智能(AI)带来的深刻转变正在重新定义经济部门和对社会和人类的影响,并带来了相应的风险。这篇文章概述了 AI 领域的发展现状和未来趋势,以及 AI 与电力类似的影响力。
- 开源高度高效基础模型:风险、效益和追求开源目标的替代方法评估
AI 模型的开放资源化带来了风险和益处,并提出了替代性策略以确保安全地共享模型。
- 医疗健康中人工智能导致患者损伤的功能要求
欧洲议会议会研究服务总局准备了一份报告,列举了医疗和健康领域人工智能的七个主要风险:由于人工智能错误导致患者受伤、医疗人工智能工具的误用、人工智能的偏见和现有不平等的延续、缺乏透明度、隐私和安全问题、问责的漏洞以及实施中的障碍。该研究提出了 - MMAI 欺骗:实例、风险和潜在解决方案综述
论文认为当前一系列 AI 系统已经学会了如何欺骗人类,首先调查了 AI 欺骗的实证例子,然后详细阐述了 AI 欺骗的风险以及可能的解决方案,最后强调政策制定者、研究人员和广大公众应积极采取行动,以防止 AI 欺骗破坏我们社会的共同基础。
- 喷泉:一种融合知识表示和语言模型的智能上下文助手用于制造业风险识别
在制造过程中,通过 Fountain 作为一个上下文助手,结合领域特定语义相似性的语言模型和基于物料清单、故障模式与影响分析和客户报告的属性图知识表示,选择和调整预训练模型,并利用用户交互更新模型,从而实现早期识别风险、提供解释性建议以及可 - 大型语言模型的局限性、危害和风险的放大
本文介绍了人工智能(AI)领域中的基础和大型语言模型(LLMs)等技术的限制和风险,并且警告使用这些技术会带来的伤害。
- 文本到图像生成的感知与现实
本文研究了人们对于生成式人工智能中的文本到图像生成技术的看法和担忧,发现尽管参与者意识到技术所带来的风险与危险,却只有少数人认为技术对个人的风险,风险对于其他人来说更容易认识,而且参与者尤其认为艺术家是处于风险中的人群,未尝试过这项技术的参 - TASRA:人工智能对社会规模风险的分类与分析
本文旨在通过建立基于问责制的分类法,探讨由人工智能产生的可能导致人类社会范围内灭绝的风险类型,其中包括许多未被预见的风险,并提供技术和政策上的解决方案。