- CVPRSHiNe: 开放词汇物体检测的语义层级连结
语义层级联盟(SHiNe)是一种使用类别层次结构的新型分类器,通过在语言模型的帮助下,提高了对于不同细粒度词汇的健壮性,不需要训练且可与任何现有的 OvOD 检测器无缝集成,可用于图像目标检测和分类任务。
- IJCAI跨领域特征增强的域泛化
领域泛化通过提高模型的鲁棒性来开发具有分布偏移上的稳定性的模型。现有方法在跨域数据上学习不变性以增强模型的稳健性,数据增强被广泛用于学习不变的预测模型,其中大多数方法在输入空间进行增强。然而,输入空间的增强的多样性有限,而特征空间的增强更加 - 基线和神经网络力量估计方法对达芬奇研究套件 Si 系统的有效性研究
通过使用 dVRK-Si,本研究进一步研究了基于神经网络的力量估计方法的鲁棒性和泛化能力,并将其性能与几种基准方法进行了比较,结果表明神经网络方法在两个系统上提供了可比较的力量估计准确性。
- 基于深度学习的物体姿态估计:综述
基于深度学习的物体姿态估计的最新进展、挑战和未来研究方向的综述。
- CVPR通过神经架构搜索实现准确可靠架构
为了保护深度神经网络免受对抗性攻击,我们提出了 ARNAS 来搜索用于对抗训练的准确且稳健的架构。实验结果表明,所搜索到的架构具有最强的稳健性和具有竞争力的准确性,并打破了基于 NAS 的架构无法在稳健性场景下很好地进行迁移的传统观念。通过 - 关于通过扰动潜在表示进行文本分类的对抗性示例
通过使用分类器的梯度,我们创建了一个衡量文本分类器鲁棒性的框架。
- ReLU 是否具有对抗鲁棒性?
通过实验证明修正线性单元(ReLU)激活函数在生成对抗性样本方面的不足,我们提出了一种改进版本的 ReLU 函数,以提高对抗性样本的鲁棒性,并通过对抗训练进一步增强了我们的自定义模型相比于通用模型的鲁棒性。
- 倾斜你的头:激活分类器的隐藏空间不变性
通过反转变换树进行推理的逆变换搜索算法(ITS)能够使深度神经网络具备对空间变换输入的零样本伪不变性,并在所有零样本测试场景上优于基准模型。
- 只需一半:通过使用部分内容提升数据增强
提出了一种名为 YONA 的新型数据增强方法,通过分割图像并将其中一半替换成噪音,对另一半应用数据增强技术,减少原始图像中的冗余信息,鼓励神经网络从不完整的视图中识别对象,显著提高神经网络的鲁棒性,此方法无需参数,应用简单,增强了现有数据增 - 评估大型语言模型的对抗性鲁棒性:一项实证研究
对大型语言模型的鲁棒性进行了攻击和评估,并在五项不同的文本分类任务上建立了新的鲁棒性基准,研究结果对可靠部署语言模型并推动可信人工智能系统的发展具有重要意义。
- 去中心化学习对节点和数据干扰的鲁棒性
去中心化学习具有鲁棒性,在节点破坏和数据可用性方面表现出非凡的稳定性和分类准确率。
- 架构修改对深度学习对抗鲁棒性的影响
通过对深度学习模型的鲁棒性进行实验评估,我们的研究旨在揭示模型修改对深度学习模型的可靠性和安全性在安全和保密关键应用中的重要性。
- 从攻击到防御:对黑箱设置中的深度学习安全措施的洞察
深度学习模型对抗攻击和防御的鲁棒性的综合实验研究表明,模型复杂度和鲁棒性之间存在显著关系,并且应用防御策略可以显著减少攻击效果。
- 稳健可解释推荐
提出了一个能够在外部攻击下保持鲁棒性和提供一般性解释的特征感知可解释推荐系统的通用框架,通过在三个不断增大的流行电子商务数据集上对两个架构不同的基于特征的最先进可解释算法进行训练,实验证明了该框架在正常和嘈杂环境下全局解释能力的整体提升,展 - 超越针对单一攻击类型的鲁棒性定位文件
当前关于对抗样本的防御研究主要集中在实现对单一攻击类型的健壮性,然而,可能的扰动空间更广泛,目前无法由单一攻击类型建模。当前防御方法的关注点与攻击空间的差异性引发了对现有防御方法的可行性和评估的可靠性的质疑。在本立场论文中,我们主张研究界应 - 游戏过滤器:安全机器人在对抗想象中行走
通过离线博弈强化学习,用于合成高度鲁棒的安全过滤器以实现腿式机器人在不确定的、新颖环境中的安全操作。
- MM图嵌入方法在社区检测中的稳健性
本研究探讨了在网络扰动(尤其是边缘删除)的情况下,图嵌入方法在社区检测中的鲁棒性。通过对合成和真实网络进行的实验证明了不同家族的图嵌入方法的不同程度的鲁棒性,发现网络大小、初始社区划分强度和扰动类型等因素对鲁棒性的影响。值得注意的是,nod - 论拜占庭鲁棒优化抗数据污染的相关性
机器学习中的数据污染和故障工作者问题对鲁棒性的重要性进行了研究,通过考虑具有分布式特征的机器学习环境中的 Byzantine ML 问题,证明了解决方法在更弱的数据污染威胁模型下依然是最优的。同时,研究了一种一般的数据污染模型,其中一些工作 - 会话蕴含任务的对抗攻击与防御
在这项研究中,我们将对抗性攻击结果视为模型的一个新(未见过的)领域,并将防御问题转化为如何提高模型在这个新领域的鲁棒性。我们关注会话蕴含任务,其中多轮自然语言对话是前提,通过对变换模型进行微调以预测给定对话的假设是真还是假。我们采用同义词交 - 谐波 LLMs 是可靠的
我们提出了一种直观的方法,实时测试任何黑盒 LLM 的鲁棒性(稳定性和可解释性),基于与谐波性的局部偏离,表示为 γ。我们进行人类注释实验,显示 γ 与错误或误导性答案之间的正相关,并证明在随机梯度上升中遵循 γ 的梯度能够高效地暴露敌对提