使用对抗性水印攻击光学字符识别(OCR)系统
本研究提出了一种基于 Fast Adversarial Watermark Attack (FAWA) 的白盒序列 OCR 模型的攻击方法,该方法将扰动伪装成水印,使得生成的对抗性图像能够对人眼呈现自然外观,并且能够实现 100% 的攻击成功率。在字母和单词级别的攻击中,实验结果表明,与现有攻击方法相比,FAWA 的扰动量少 60%,迭代次数少 78%。此外,FAWA 还支持全彩色水印、其他语言以及 OCR 准确性改善机制。
Dec, 2020
本文研究表明,在深度学习的光学字符识别(OCR)技术中,存在对抗性图像漏洞,通过对印刷文字进行轻微修改来替换特定词汇的语义对立体,可以误导 OCR 识别出不正确的文字信息,进而影响 NLP 预处理其输入的应用。
Feb, 2018
本文提出利用对抗式机器学习中的稳健优化算法来提高基于卷积神经网络的数字水印框架的鲁棒性,在 COCO 数据集上的实验证明,稳健优化可以显著提高数字水印框架的鲁棒性。
Oct, 2019
提出一种光学字符识别 OCR 后门攻击,通过插入非可读字符的恶意输入图像,使 OCR 模型在某些实例中输出非可读字符,同时不影响其在其他实例中的性能。
Oct, 2023
本篇研究提出了将图像水印技术和对抗样本算法结合在一起生成一种新的对抗扰动 ——Adv-watermark,并且使用一种新的优化算法 Basin Hopping Evolution (BHE) 生成黑盒攻击模式下的对抗性水印,该方法比其他攻击方法更为高效和鲁棒。
Aug, 2020
提出了一种将个人水印嵌入敌对实例生成中的新框架,以生成具有可见水印的图像,防止敌对模型模仿未授权图像,并在各种条件图像生成场景进行广泛实验,证明了敌对实例具有良好的传递性,从而提供了一种保护基于扩散模型的版权的简单而有效的方法。
Apr, 2024
使用水印技术可以标记生成内容并通过隐藏信息检测其真实性,我们通过定义目标函数并将自适应攻击作为优化问题来解决水印算法的鲁棒性评估问题,研究发现可在图像质量几乎不降低的情况下破解所有五种受测水印方法,强调了对适应性、可学习的攻击者进行更严格的鲁棒性测试的必要性。
Sep, 2023
本文提出了一种基于深度学习神经网络的鲁棒盲水印方案,该方案实现了自适应图像水印算法,无需人工干预和注释,并且不需要事先了解敌对攻击的有关信息,实验证明了该方案的优越性。
Jul, 2020
该论文介绍了一种基于深度学习的新型文本图像水印嵌入和提取方法,通过使用 Transformer 架构进行文本处理和 Vision Transformers 进行图像特征提取,该方法在领域内树立了新的基准。该方法是深度学习在文本图像水印处理中的首次应用,实现了自适应性改进,使模型能够智能地适应特定图像特征和新兴威胁。通过测试和评估,该方法显示出比传统水印技术更强大的鲁棒性,实现了增强不可察觉性,确保水印在各种图像内容中保持不可检测。
Apr, 2024