这项研究探讨了视觉语言模型在处理令人费解任务(如仇恨迷因检测)中的有效性,并观察到大型视觉语言模型在零样本仇恨迷因检测方面仍然存在脆弱性。
Feb, 2024
本研究探讨了视觉语言模型在医学图像分析任务中的零样本和少样本鲁棒性,通过全面的实验验证了视觉语言模型在分析生物医学图像方面的有效性。
使用 Probing-Based Captioning 方法,通过向一个冻结的 PVLM 提问来生成图像标题,以解决令人讨厌的模因检测任务中的非信息性图像标题的问题,该方法在三个基准测试上验证了其有效性和泛化性。
Aug, 2023
我们的研究通过综述和实证分析,揭示大型语言模型在检测恶意言论中的能力和限制,强调它们作为分类器的角色以及发现优秀的模型和他们的特点和训练方法,为理解大型语言模型在关键的恶意言论检测领域的能力做出贡献。
Mar, 2024
提高社交媒体内容的自动审查效率,本文探讨了不同的模型并比较其在内容分类上的效果,结果表明,早期融合模型中 CLIP 表现最佳,其 AUROC 值为 70.06。
May, 2023
本文主要研究通过使用视觉和语言网络来探索多模式情况下更全面的信息,应用预训练的分类器和目标检测器来获取上下文和 ROI,采用不同的嵌入组件如词嵌入,位置嵌入和语言嵌入,设计了互补的视觉和语言网络模型(CVL)来检测恶意图片并取得了较好的性能。
Dec, 2020
使用大型语言模型和四种不同的提示策略,发现大型语言模型能够有效地检测恶意言论并超过当前基准机器学习模型的性能,提示策略在高效利用大型语言模型的知识库方面起到关键作用。
Jan, 2024
通过使用大语言模型(LLM)和视觉语言模型(VLM),本研究提出了一种全面框架 MemeGuard 用于干预恶意的 multimodal(多模态)网络迷因,测试结果表明 MemeGuard 在生成恰当和有效应对恶意迷因方面表现出色。
Jun, 2024
Hateful Memes Challenge 使用 VisualBERT 多模态训练进行恶意标记检测,在挑战测试集中取得了 0.811 AUROC 和 0.765 的准确率,获得了 3173 名参赛者中的第三名
本研究探讨了几种最新的视觉 - 语言 Transformer 结构,提出改进措施,以使它们在检测仇恨言论的任务中更接近于人类的准确性。提出的模型明显优于基准线,并在 3100 多个参赛者中排名第 5。