- 检测机器生成文本:不仅仅是 “人工智能 vs 人类” 和解释性复杂
本文提出一种新的三元文本分类方案,包括 “未决” 类别,研究了如何使检测结果更易理解,重点在于为用户提供清晰明了的解释。通过构建新的数据集,使用先进的检测方法和最新的 LLMs,该研究发现 “未决” 类别对于文本检测的可解释性至关重要,并提 - 基于深度驱动几何提示学习的腹腔镜肝脏标志检测
为了在腹腔镜肝脏手术中提供直观指导信息,本文提出了一种基于深度驱动几何提示学习网络的方法(D2GPLand),该方法结合二维 - 三维融合技术,在 L3D 数据集上取得了最新的性能,具有 63.52%的 DICE 和 48.68%的 IoU - Codecfake: 用于检测基于 LLM 的深度伪造音频的初始数据集
通过 Codecfake 数据集的实验结果显示,相较于使用 vocoder 的音频深度伪造检测模型,经过编码器训练的模型在 Codecfake 测试集上平均等误差率减少了 41.406%。
- 改进基于逻辑回归的检测器中不使用黑盒 LLMs 的逻辑回归
大规模语言模型在文本生成方面产生了重大影响,难以区分机器和人类生成的文本的界限提出了新的挑战,而且阻碍了黑盒 LLMs 的准确检测方法。为了解决这些限制,提出了一种创新的框架 Distribution-Aligned LLMs Detect - CVPRAVFF:音视特征融合用于视频深度伪造检测
通过跨模态学习方法的视听特征融合,我们提出了一种用于改进深假检测的两阶段方法,可以明确地捕捉音频和视觉模态之间的对应关系,并在真实和伪造视频上进行监督学习,取得了 98.6% 的准确率和 99.1% 的 AUC,相较于当前的音视混合最先进技 - ConStat:大型语言模型中基于性能的污染检测
公共基准测试、数据污染、性能、检测方法、ConStat
- Codecfake 数据集与深伪造音频的普适检测对策
该研究主要关注基于音频语言模型(ALM)的深度伪造音频的检测方法,提出了 CSAM 策略来解决原始 SAM 的领域上升偏差问题,并通过 Codecfake 数据集和 vocoded 数据集的共同训练,在各种测试条件下实现了最低的平均等错误率 - 泛化的跨模态深部伪造检测的显式相关性学习
通过建模内在跨模态相关性的相关学习任务,并引入跨模态深伪造数据集,我们提出了一种可以增强不同生成场景的深伪造检测方法,实验证明其在不同类型的深伪造数据集上表现优于现有方法。
- 对抗式学习的鲁棒音频深度伪造检测(CLAD)
音频深度伪造的广泛应用和威胁需要强大的检测方法。本研究首次全面调查了最常用的音频深伪造检测器对操纵攻击的敏感性,并提出了 CLAD 来改善其鲁棒性。通过对比学习和长度损失等技术,CLAD 显著提高了检测的准确性和鲁棒性。
- 深伪和高等教育:综合媒体的研究议程和范围回顾
本文通过对 182 篇同行评议的出版物进行初步范围审查,评估了有关深度伪造的文献。通过讨论各方面的趋势,将结果应用于高等教育领域,提出了深度伪造技术在高等教育中的主要风险和潜在的缓解策略,以及有益于教学和学习的用途,最终提出了一个研究议程以 - 探索 LLM 生成的虚假新闻的欺骗力:对现实世界检测挑战的研究
最近大规模语言模型(LLMs)的进展使得虚假新闻的制造成为可能,本研究旨在确定提示技术是否能够有效缩小 LLM 生成的虚假新闻的欺骗性差距,通过提出一种名为条件变分自编码类提示(VLPrompt)的强大虚假新闻攻击方法,该方法无需额外的数据 - WannaLaugh: 身份可配置的勒索软件模拟器 -- 学习模仿恶意存储操作
该研究论文介绍了一种新型的勒索软件模拟器,用于研究勒索软件的行为特征,并展示了如何使用此模拟器来训练有效的机器学习模型,以检测勒索软件,并在机器学习驱动的网络安全中取得了显著进展。
- 检测多模式机器翻译的具体视觉符号
通过多模式机器翻译 (MMT) 系统中的视觉定位和屏蔽的挑战,我们提出了用于检测和选择与视觉有关的文本令牌进行屏蔽的新方法,包括自然语言处理 (NLP) 检测、目标检测检测和联合检测 - 验证技术。我们还引入了选择已检测到的令牌的新方法,包 - 道路表面缺陷检测 -- 从基于图像到非图像:一份综述
确保交通安全至关重要,需要检测和防止道路表面缺陷,以此为主题,研究了道路表面缺陷检测的各种方法。主要方法是基于图像的方法,分析像素强度和表面纹理来识别缺陷;然而,这些方法对于天气和光照变化敏感,为解决这个问题,研究者探索了使用激光扫描仪或激 - 规避语言模型的数据污染检测 (过于) 简单
大型语言模型在基准测试中的性能经常影响用户对模型的偏好。然而,这些模型训练所使用的大量数据可能会无意中与公共基准测试数据混合,从而损害性能测量结果。尽管最近开发了一些污染检测方法来解决这个问题,但它们忽视了恶意模型提供者有意回避检测的可能性 - 检测大型 AI 模型生成的多媒体内容:一项调研
通过系统的调查研究,我们填补了一个学术空白,为全球人工智能安全努力做出贡献,帮助确保数字领域中信息的完整性。
- 基于事实核查的假新闻检测:综述
该论文从任务和问题、算法策略和数据集的角度对基于事实的假新闻进行了综述和总结,包括任务定义和核心问题、现有的检测方法、经典和新提出的数据集以及已有方法的优势和劣势,并提出了该领域可能面临的若干挑战,期望为该领域的后续工作提供参考。
- AAAI无法学习例子的检测与防御
随着社交媒体的出现,隐私保护变得越来越关键。我们提出了使用深度学习模型的泛化能力降低的不可学习示例来避免在互联网上泄露个人信息,然而我们的研究发现,不可学习示例很容易被检测出来。我们提供了关于某些不可学习污染数据集的线性可分性的理论结果和基 - 在生成 AI 革命时代重新思考图像编辑检测
构建了 GRE 数据集,该数据集包括原始图片和使用多个大型模型进行编辑的多种编辑方式,旨在推动生成区域编辑检测领域的进一步研究和探索。
- DALA:一种基于分布感知的 LoRA 方法对抗预训练语言模型
通过考虑对抗样本的分布变化以提高检测方法下的攻击效果,我们提出了一种分布感知的 DALA 对抗攻击方法,并设计了一个评价指标 NASR,结合 ASR 和检测,验证 DALA 生成的对抗样本在 BERT 和 LLaMA2-7b 模型上的攻击效