CAVE: 可控作者验证解释
本研究提出了 PromptAV,这是一种基于大型语言模型(LLMs)和逐步文体解释提示的新技术,用于作者验证(AV)任务,通过提供逐步解释提示的方式来解决现有 AV 技术在数据需求和可解释性方面的限制。PromptAV 在有限的训练数据下表现优于现有技术,并且通过直观的解释提高了可解释性,展示了其作为一种有效可解释的 AV 任务解决方案的潜力。
Oct, 2023
该研究论文介绍了谁是这篇文章作者(AA)和作者验证(AV)这两种方法,针对 AA/AV 数据集和评估指标的标准化与基准评估并评估了八种方法,其中传统的 Ngram-based 模型在 5 个 AA 任务中表现最佳,而 BERT-based 模型则在另外两个任务和 AV 任务中表现更好。通过使用 hard-negative mining,AV 方法可以作为 AA 方法的有竞争力的替代品。
Sep, 2022
本文针对社交媒体上短文本语言特征多变不足以支持作者验证的问题,提出了一种基于 Hierarchical Siamese 神经网络的算法,通过学习神经特征和可视化决策过程可以有效地进行作者验证,并在大规模的亚马逊评论数据集上进行实验,结果表明 Siamese 神经网络模型优于传统的基于语言特征的方法。
Oct, 2019
提出了一种基于计算被称为 LambdaG 的概率比值的方法,并通过 12 个数据集的实证评估,证明了 LambdaG 在准确性和 AUC 方面的优势,以及其与语言处理的认知语言学理论的兼容性。
Mar, 2024
该研究提出了一种基于最先进的 VQA 框架的端到端解释生成模块,通过引入 LSTM 和 Transformer 解码器,生成人类可读的文本解释,同时保持 SOTA VQA 精度。
Nov, 2022
在作者验证的敌对设置中,通过与负面合成样本增强分类器训练集,以模仿感兴趣作者的风格,无论是通过隐藏写作风格还是模仿其他作者的风格,本文以三种不同的生成器架构(基于循环神经网络的一种,基于小规模转换器的一种,以及基于流行的 GPT 模型的一种)和两种训练策略(一种受标准语言模型启发,另一种受 Wasserstein 生成对抗网络启发)来分析这种增强方法在作者验证任务中对分类器预测的改进效果。然而,实验结果显示,尽管该方法在许多敌对设置下有效,但其效果在实际应用中过于不稳定。
Mar, 2024
本文提出了五个新的公共分组来隔离和识别与文本主题和作者书写风格相关的偏差,并使用可解释的 AI 发现这些基线模型存在命名实体偏差,进而得出释放命名实体的模型在作者验证中更好的结果和更好的泛化能力,这对与 PAN 大规模作者验证数据集有重要意义。
Dec, 2021
介绍了一个人本中心的框架 ClaimVer,通过生成丰富的注释来满足用户的信息和验证需求,减少认知负荷,清晰地验证每个声明,提供清晰简明的解释,增强了广泛应用于各种下游任务的适用性。
Mar, 2024