预训练语言模型对于领域外探测几乎完美是否需要微调?
本论文探讨了文本 out-of-distribution detection 的方法在检测 semantic 和 non-semantic shifts 时存在的问题,并提出了一个简单有效的综合方法 GNOME,通过整合 task-agnostic 和 task-specific representations 的置信度得分来检测语义和非语义的偏移,实验证明 GNOME 在两个跨任务基准测试中表现出了明显的改进。
Jan, 2023
本文回顾了最近关于out-of-distribution检测的进展,重点关注了自然语言处理方面的方法。通过分类和介绍数据集、应用和评估指标,总结了现有的研究,同时提出了未来的研究方向。
May, 2023
本文探讨了如何通过多模态概念匹配框架来评估诸如CLIP等最新视觉语言模型的fine-tuning方法对于少样本下游任务的超出分布检测性能的影响,并发现所选的ODD得分方法至关重要,MCM得分方法表现最佳,prompt learning在超出分布检测性能上表现最好。
Jun, 2023
本文着重介绍了现有方法在处理NLP中OOD检测时的局限性, 对八种常见的OOD检测方法进行了评估并分析了其存在的问题,发现现有方法对于各类型分布偏移的检测敏感性不够,在领域内文本中存在令人困惑的测试场景,而需要开发更有效的OOD检测方法,本文为未来的研究提供了一个良好的、定义明确的基础。
Jul, 2023
我们提出了一种名为Pseudo Outlier Exposure(POE)的简单但有效的方法,通过顺序遮盖与ID类相关的令牌来构建一个替代性的OOD数据集,该替代性OOD样本与ID数据具有相似的表示,可以在训练拒绝网络方面发挥最有效的作用,与最先进的算法进行全面比较,在几个文本分类基准测试中证明了POE的竞争力。
Jul, 2023
通过对大型语言模型进行实证研究,本文发现余弦距离的异常检测器表现出卓越的效力,优于其他异常检测器,并通过强调大型语言模型嵌入空间的各向同性特征,提供了对这一现象的有趣解释,进一步增强了我们对大型语言模型在检测异常数据方面的适应性和可靠性。
Aug, 2023
揭示预训练模型在预训练算法视角下,外分布数据对外分布检测性能的影响,并提出利用实例间鉴别性特征空间独立于 ID 决策边界的方法解决预训练模型的脆弱性。
Oct, 2023
使用Transformers,本文提出了一种针对文本型OOD检测的新颖变分推断框架(VI-OOD),通过有效利用预训练Transformers的表示,最大化联合分布$p(x, y)$的似然度,从而解决了现有OOD检测方法中出现的问题。通过对多个文本分类任务的广泛实验,VI-OOD展示了其高效性和广泛适用性。
Apr, 2024
通过重新审视预训练大型语言模型和其微调变体之间的似然比作为一种区分所需分布检测的标准,我们展示了似然比可以作为一种有效的OOD检测器,并将其应用于问题回答系统中以改善LLMs在一般问题上的性能。
Apr, 2024
本研究解决了机器学习系统中异常和分布外样本检测的重要性及其现存方法的不足。通过提出一种新的分类法,研究将现有方法根据大型语言模型的作用进行分类,并探讨了未来研究的挑战与方向。这项工作的显著发现是,大型语言模型在异常和分布外检测中的整合可能会显著改变该领域的传统范式。
Sep, 2024