- 图机器学习的安全性:威胁与保障
探讨了提高图机器学习(Graph ML)安全性的三个关键方面:可靠性、泛化能力和保密性,并采用一种新的分类法分析了与这些方面相关的威胁,指导评估有效策略来保护图 ML 模型的安全性,为未来的研究奠定基础。
- 大规模随机程序的妥协决策可靠性理论
本文研究了基于 “妥协决策” 过程的随机规划解决方案的可靠性,采用最小化多次复制解决方案的目标函数近似的方法,并利用 Rademacher 平均值限制了 “妥协决策” 的抽样复杂性。
- ICML流形综合梯度:特征归因的黎曼几何
通过适应路径影响力的方法,了解了集成梯度(IG)在黑盒深度学习模型中存在的可靠性问题,主要是生成针对视觉模型的嘈杂特征可视化和对敌对归属攻击的脆弱性。我们的实验使用深度生成模型应用于多个真实图像数据集,证明了 IG 沿测地线符合黎曼数据流形 - 演化网络拓扑下的电网运行风险评估的图神经网络
该研究探讨了图神经网络在没有明确的高分辨率信息(发电机状态、电网拓扑和电力调度决策)的情况下,能否识别未来几个小时内电网的风险状况。研究发现,基于图神经网络的可靠性和风险评估具有快速而准确的预测能力。
- CleanGraph:人机互动的知识图谱优化与补全
CleanGraph 是一个交互式网络工具,旨在促进知识图谱的完善和修正,以提高图谱数据的可靠性和完整性。
- 钻柱声学通信的端到端自编码器
通过深度学习自编码器 (AE) 设计的端到端通信系统可实现低延迟、高吞吐量和可靠性的钻杆通信,与基准的非连续 OFDM 系统相比,具有更低的误码率和峰均功率比操作时延。
- ACL过度自信是关键:大型语言和视觉 - 语言模型中的口头不确定性评估
该论文评估了语言和视觉 - 语言模型的可靠性,并提出了新的日本不确定场景数据集以及测量校准误差的方法。结果表明,语言和视觉 - 语言模型都存在较高的校准误差,并且大部分时间都表现出过度自信,说明其对不确定性估计的能力较弱。此外,研究还发展了 - ACL超越性能:量化和减轻 LLMs 中的标签偏差
通过评估不同方法对模型预测中的标签偏倚进行量化研究,我们提出了一种专门用于少样本提示的新型标签偏倚校准方法,其在提高性能和减轻标签偏倚方面优于最近的校准方法。我们的结果强调大型语言模型中标签偏倚对其可靠性的影响。
- PVF(参数脆弱性系数):衡量 AI 对参数损坏的脆弱性和恢复性的量化指标
AI 硬件系统的复杂性和异质性使其对硬件故障(如位翻转)变得越来越容易受损,因此本文提出了一种新的量化指标 PVF 以评估 AI 模型对参数损坏的脆弱性,该指标可帮助硬件设计人员在保护系统免受故障的同时平衡性能和效率。
- 何时可以信赖 LLMs:将自信与回答质量对齐
我们提出了一种名为 CONQORD 的方法,利用强化学习和定制的双组分奖励函数,通过对齐可信度和响应质量来提高大型语言模型的可靠性和对齐表现,从而指导何时信任 LLMs 并在检索过程中使用外部知识。
- 知识密集检索增强生成中的多视图洞见
该论文介绍了一种针对知识密集领域的新型多视图 RAG 框架 (MVRAG),利用多个领域视角的意图感知查询重写来增强检索精度,从而提高最终推理的有效性。在法律和医学案例检索上进行的实验证明,我们的框架在召回率和精确率方面取得了显著改善。我们 - REQUAL-LM: 大规模语言模型中的可靠性与公平性聚合
通过聚合实现可靠和公平的大型语言模型输出,而无需专门的硬件或重训练,REQUAL-LM 方法在解决 LLM 可靠性和公平性方面展现了很好的效果。
- 基于不确定性的 LLMs 弃权改善安全性并减少幻觉
大语言模型 (LLMs) 缺乏可靠性是其实际部署的一个主要障碍。本研究探讨了在问答领域中,通过不确定性度量的不确定度来弃权的可行性和有效性,并使用具有和不具有人类反馈的强化学习(RLHF)的模型和这些不确定度度量,证明通过适当的不确定度度量 - MRI 可解释的概念映射:揭示基于深度学习的脑疾病分类的机制
通过对深度神经网络学习的概念进行系统性研究,可以确定变化的大脑区域用于模型验证,从而增加疾病分类模型的可靠性。
- 您会信任 AI 医生吗?通过核病虫害不确定性建立可靠的医疗预测
该论文介绍了一种解决人工智能在医疗领域中不可信和数据有限性的挑战的新方法,提出了一种基于贝叶斯蒙特卡洛 Dropout 模型和核模型的方法。该模型旨在提高对小型医疗数据集的可靠性,这是阻碍人工智能在医疗领域广泛应用的关键障碍。通过利用现有的 - 语义分割中重新思考不确定性估计度量
计算机视觉领域中,语义分割是机器学习中的一个基础应用,其中图像的每个像素被分类为不同的语义类别,并通过不确定性量化来评估每个分割预测的可靠性。本研究针对基于熵的图像分割任务中的不确定性进行专门评估的度量标准 PAvPU (Patch Acc - CVPR学习不可靠性:利用相对几何一致性进行快速的少样本体素辐射场
使用基于体元的优化框架 ReVoRF,针对伪新视图合成中的不可靠性问题,利用相对深度关系和绝对颜色值之间的权衡,通过双边几何一致性损失和可靠性引导学习策略,实现了对数据的更细粒度利用和增强重建质量,显著提高效率和准确性。
- Calib3D: 可靠的 3D 场景理解模型偏好校准
对现有的三维场景理解模型进行不确定性估计并评估其可靠性,发现在安全敏感的环境中,虽然现有模型在准确性方面表现出色,但却经常无法提供可靠的不确定性估计,这严重影响了它们的适用性。通过分析网络容量、LiDAR 表示、光栅化分辨率和三维数据增强技 - HuLP: 人工干预提高预测准确性
该研究介绍了 HuLP,一种用于临床环境中改善预后模型的可靠性和可解释性的人机协同模型。HuLP 通过人机协作,赋予临床医生与模型进行交互和纠正预测的能力,从而生成更准确的预后结果。此外,HuLP 利用神经网络和个性化方法有效地处理缺失数据 - Python 模糊测试可信机器学习框架
确保机器学习框架的安全性和可靠性对于构建可信的基于人工智能的系统至关重要。我们提出了一个 Python 项目的动态分析流水线,使用 Sydr-Fuzz 工具集来实现模糊测试、语料库精简、崩溃分析和覆盖率收集,在 GitLab CI 中实现流