- 遵规卡:用于自动化 AI 监管遵守的计算工具
通过引入一种高度自动化的系统,我们可以捕获与人工智能系统和模型的合规性相关的数据,并跨越这些数据进行分析,从而加强和加速 AI 法规的合规评估。
- 探讨可解释性和人工智能素养在用户合规性中的作用
AI 逐渐在不同领域中变得越来越普遍。然而,由于复杂的基于 AI 的系统通常是黑盒的,决策逻辑不透明,用户发现很难遵守它们的建议。虽然研究人员正在调查可解释的人工智能(XAI)以增强底层机器学习模型的透明度,但有效的解释类型和其他增加遵从的 - 通过结合弱工具和观测数据估计异质治疗效应
通过结合工具变量和观测数据,本文提出了一种可靠的方法来估计存在观测数据中的未观察混淆以及工具变量数据中的低合规性(包括某些子群体的零合规性)的条件平均处理效应(CATEs)。
- PrivComp-KG:利用知识图谱和大型语言模型进行隐私政策合规性验证
提出了基于大型语言模型和语义网络的隐私合规方法,通过开发隐私政策合规验证知识图谱(PrivComp-KG),有效存储和检索有关隐私政策、法规框架和领域特定知识的全面信息,实现对供应商隐私政策与相关政策法规的合规性查询。
- 操纵下,一些 AI 模型是否更难审计?
在现实环境中进行大容量模型的鲁棒审计是一个困难的问题,通过使用 Rademacher 复杂度,研究了最新的无法操纵审计技术对目标模型容量的可操作性,实验证实了大容量模型难以进行鲁棒审计的问题。
- 基于生成式 AI、嵌入式排名、众包和专家驱动方法的企业流程相关法规要求鉴别研究对比
通过比较基于嵌入式 NLP 排名方法、使用 GPT-4 的生成式 AI 方法、众包方法以及纯手动创建相关性标签的方法,本研究旨在探讨如何协助法律和领域专家评估相关要求,并通过两个案例研究对方法进行评估,提供了关于适用性、自动化、透明性和可重 - 法律要求分析
现代软件是许多学科和应用环境中日常活动的重要组成部分。通过利用人工智能引入智能自动化在许多领域取得了突破。人工智能的有效性可以归因于诸多因素,其中之一是数据的不断增加。监管框架(如欧洲联盟的常规数据保护条例)出台以确保个人数据的保护。收集、 - 遵守欧盟 AI 法案
该研究论文通过对 EU AI Act 的分类,开发了一个问卷,提供定量数据和洞见。数据分析显示了不同合规性类别下组织所面临的各种挑战,并研究了组织特征(如规模和行业)对合规性的影响。此外,论文还分享了被调查对象对 AI Act 内容和应用的 - 大语言模型时代中的被遗忘权:影响、挑战和解决方案
利用大型语言模型开发的软件系统在实施《被遗忘权》方面面临新的挑战,本文探讨了这些挑战并提供了关于如何采取技术解决方案来实现《被遗忘权》的见解,包括机器遗忘、模型编辑和提示工程。
- DMF-TONN:基于神经网络的直接无网格拓扑优化
本研究提出一种直接无网格法进行拓扑优化的方法,它能够将密度场近似神经网络与位移场近似神经网络集成起来,实现良好的优化效果,且无需使用网格法和有限元分析 (FEA),可以无缝与后处理软件集成。
- AI 中超越偏见和从众行为:走向个体代理和多元伦理
文章提出一种新方法,强调数据标注在维护机器伦理方面的重要作用,并探讨了伦理基础、系统架构以及伦理定义的问题;同时,该文章还指出,建立伦理人工智能是为了在公司和用户之间建立信任基础。
- 人工智能自动化合规蓝图优化
本文研究了高度规范的行业比如银行和医疗领域中所遇见的遵循法规标准的云计算难题,提出了使用人工智能技术解决技术规范和法规控制之间的映射问题的方法,并进行了早期结果的展示和讨论
- 使用贝叶斯优化设计 MacPherson 悬挂架构
本文提出了一种基于 Bayesian 优化的自动化工程设计方法,该方法可优化符合设计要求的设计参数,避免了传统设计方案测试的耗时成本,并且该方法具有普适性,可扩展性和高效性。
- 以解释性设计为支持的解释分类
该论文使用 “Explainability-by-Design” 方法,并构建了一个包含 9 个维度的分类学来生成解释以遵循各种监管框架或组织层面的政策需求,从而帮助制定辅助性的自动合规策略,并提供一个机器可读的轻本体论,以便从一系列实例中 - KDD协调解释性要求的七个挑战
本文回顾了最近关于可解释 AI(XAI)的技术文献,并认为基于我们当前对该领域的理解,实践中使用 XAI 技术需要考虑特定业务应用程序的利益相关者的具体需求。
- ICML激励遵守算法工具
本文研究了随机实验可能因参与者的潜在非合规性而容易受到选择偏差的影响,并提出了一个博弈论模型来研究动态行为对合规性的影响,该模型可估计每种治疗的治疗效应并将规划者的建议视为工具变量。
- 半参数工具变量法在内生性下最优治疗方案的研究
提出了一种基于工具变量的方法,通过二进制工具变量帮助确定无未测混杂作用的最优治疗方案,同时构造了新型的多重稳健分类估计器,该方法通过对育儿对劳动参与的影响数据的应用进行了说明。
- 公正贷款需要解释模型进行负责任的推荐
金融服务业在信贷决策时面临着遵守法规和道德考虑方面的独特可解释性和公平性挑战,这些挑战复杂化了在业务决策过程中使用模型机器学习和人工智能的方法。