在机器学习中,预训练模型对于下游任务的使用已经成为一种标准方法,虽然其实证明了效果提升,但是预训练模型的鲁棒性如何传递到下游任务中还未被充分理解。我们证明了预测器的鲁棒性可以通过其基础表示的鲁棒性来界定,与预训练协议无关。综上所述,我们的结果明确了可靠性表现在部署时所需要的表示函数的要求。
Aug, 2022
本文研究了基于对比学习的深度学习模型的嵌入向量的不确定性评估问题,并提出了一种方法,直接在嵌入空间中估计数据分布并考虑其局部一致性,结果表明该方法可以有效预测嵌入向量的下游性能。
Jul, 2022
自我监督能够提高深度学习在鲁棒性、异常检测等难题上的表现甚至超越了全监督学习,成为未来自我监督学习研究的新方向。
Jun, 2019
本文提出了一种基于伪核的新工具,用于分析和预测网络学习到的表示,通过验证其在简单测试案例上的使用,本文论证了该方法可预测权重初始化和训练计划对表示学习和下游并发多任务执行表现的影响。
Jul, 2023
无监督学习下的意义化特征表示方法综述及实验结果分析。
Aug, 2023
研究表明,在预先训练的神经网络中,一个给定层中的许多神经元之间存在一定程度的冗余,因此可能不需要整个层来执行下游任务,这为提高下游任务的效率和减少数据成本提供了可能。
May, 2023
该篇论文从训练算法、预训练数据集和最终任务的角度分析了自监督表示学习的最成功和最流行的变体 - 对比式学习,探究了各种问题,包括自监督模型与监督模型的性能比较,用于评估的当前基准,以及预训练数据对最终任务性能的影响。
Mar, 2021
本文提出一项新方案,即利用注意机制自适应地挑选适合任务的表示,同时在信息论的基础上理论证明从多个预训练任务聚集表示比从单一预训练任务获取表示更为有效,大量实验表明,该方案明显优于当前流行的预文本匹配方法,能有效地收集知识和减轻下游任务中的负转移。
Apr, 2022
本文提出了一个方法,即基于样本难度感知熵正则化,利用经过大规模训练的预先训练模型指导下游模型训练,并同时提高了准确性和不确定性校准的可靠预测,克服了现代神经网络的困难,这是一个未被充分探索的领域。
Apr, 2023
这篇论文提出了一种基于自监督学习的特征学习方法,通过预测无标签数据的辅助任务来学习有用的语义表示,并使用线性层来对学习的表示进行下游任务预测,从而显著降低了样本复杂度。
Aug, 2020