- 大型语言模型信心估计通过黑盒访问
利用黑盒或查询访问大型语言模型,通过工程化新特征并训练一个可解释的逻辑回归模型,我们提出了一个简单且可扩展的框架来估算模型响应的置信度。我们的实证研究表明,我们的简单框架在 TriviaQA、SQuAD、CoQA 和自然提问等基准数据集上, - 基于灰色信息的神经网络时间序列预测
本研究提出了一种灰色信息驱动的神经网络模型(GINN),使神经网络的输出遵循灰色系统的微分方程模型,提高解释性。此模型结合了灰色系统理论的先验知识,能够有效处理少量数据样本,发现真实世界中的潜在模式并基于经验数据产生可靠的预测。
- MRxaI: 医疗环境下图像分类器的黑盒可解释性
现有的解释工具可以分为白盒和黑盒两种,医学领域的图像解释工具主要集中在白盒方法,本文对比了多种黑盒方法与 grdcam 在脑癌 MRI 数据集上的表现,发现大多数黑盒方法不适用于解释医学图像分类,而一种基于因果关系的黑盒方法能与 gradc - 使人工智能更易解释的不同方法学综述
人们对越来越多的决策由机器完成的需求增加,但黑盒模型的决策推理令人不解,因此需要关注决策推理的清晰度与可解释性,以及如何扩展到反事实思考。
- 全局优化:机器学习方法
通过使用基于超平面的决策树将非线性约束进行建模,并利用这些树构建原问题的统一混合整数优化(MIO)近似,本研究提出了扩展解决方案,包括使用其他可转化为 MIO 的机器学习模型(如梯度提升树、多层感知器和支持向量机)逼近原问题,提出自适应采样 - 标准梯度全部
使用标准化梯度的黑盒化方式来适应 H"{o} lder 平滑性,并且取决于一种新概念的局部 H"{o} lder 平滑性,主要想法直接源于 Levy [2017]。
- 暗域课程指导的领域适应
用渐进式指导的适应方法,逐步训练目标模型,先使用高置信度(干净)标签的目标数据,然后使用带有噪声标签的目标数据,通过 Jensen-Shannon 散度作为分离干净和噪声样本的更好准则,通过协同训练双分支网络来抑制确认偏差引起的错误累积,提 - 黑盒顺序决策系统的自主能力评估
本文提出了一种能够有效描述黑盒决策系统能力的主动学习方法,并证明了该方法的收敛性和少许示例的普适性。
- 仅需一次训练即可进行隐私审计
本研究提出了一种方案,用于单次训练运行的差分隐私机器学习系统的审计,利用了可以独立添加或删除多个训练样例的并行性,该审计方案利用差分隐私和统计泛化之间的联系进行分析,避免了群体隐私成本,而且对算法需求的假设极少,可在黑盒或白盒设置中应用。
- AAAI以围棋棋盘为图:强化学习下无梯度节点注入攻击的图神经网络
本研究针对图神经网络的黑盒节点插入攻击问题,提出了基于强化学习框架的渐进式无梯度节点插入攻击方法,并通过对八个基准数据集的广泛实验表明其在攻击效率和攻击成功率方面均优于现有攻击方法。
- 评估本地解释的忠实度框架
本文研究了解释系统与预测模型的准确性。通过引入两个属性:一致性和充分性,并介绍了表示它们持有程度的量化度量方式。实验表明这些措施取决于测试数据的分布,并提供了估计器和样本复杂度界限以确定黑盒解释系统的准确性。
- 移除偏见数据以提高公平性和准确性
提出了一种黑盒子方法,用于识别和消除具有偏见的训练数据,以减少机器学习所带来的偏见,此方法在实验中显示出比之前的方法更佳的个体歧视和准确性表现。
- ECCV制作隐形斗篷:对物体检测器的现实世界对抗攻击
本文系统研究了对最先进目标检测框架的对抗攻击,证明了其有效性,在不同环境下针对多种检测模型具有广泛的适应性,同时研究了使用印刷海报和可穿戴衣服进行的物理攻击,并用不同的度量方法对这些攻击的性能进行详细的分析。
- 猜测聪明:有偏采样用于高效黑盒对抗攻击
本文讨论了黑盒子设置下图像分类的对抗性样本问题,并针对 Boundary Attacks 提出了一种基于偏差抽样的新方法,该方法通过图像频率、区域掩码和代理梯度三种偏差来提高攻击效率,并在 ImageNet 数据集上进行了深入评估。最终表明 - EMNLP解释能否增加 VQA 模型对人的可预测性?
通过对深度神经网络进行解释并将其应用于 VQA 等人类交互任务的研究已经取得了重大进展;然而,本研究发现目前的解释并不能提高模型的可预测性,而将模型视为黑盒的人类参与方法却能够提高可预测性。
- 变分贝叶斯蒙特卡罗
本文介绍了一种新型的高效样本推断框架,变分贝叶斯蒙特卡罗(VBMC),可用于难以处理的黑盒似然的后验分布和模型评估。该方法结合了变分推断和基于高斯过程的主动采样贝叶斯积分,并在合成和实际数据的测试中表现出很好的性能。
- 基于深度学习的无线电信号分类的对抗攻击
本文研究了深度学习在无线电信号分类中的应用和安全性问题,通过白盒和黑盒对抗攻击使模型分类性能显著下降,与传统的干扰攻击相比,这些攻击更加强大。
- 复制卷积神经网络:通过随机非标签数据诱导认知来窃取知识
本研究主要研究如何通过黑盒查询和随机非标记数据来生成一个复制的卷积神经网络,通过该方法可以复制目标网络的 91.3%到 98.6%的性能。
- 预测性执法中的失控回馈循环
本研究通过建立数学模型证明预测警务系统存在反馈循环问题,进而为系统输入的调整提供有效方法,以避免反馈循环问题的产生,从而学习到真正的犯罪率。同时,研究发现报告犯罪与发现犯罪的差异会影响反馈循环强度,但不会完全消除问题。
- 深度网络的简单黑盒对抗扰动
研究表明,即使没有内部知识,对深度卷积神经网络进行黑盒攻击并制造对抗性样本是可行的,这暴露了深度神经网络的弱点,为设计安全的网络提供了检验。