关键词pre-trained deep neural networks
搜索结果 - 10
- 预训练模型的外部分布泛化受哪些变量影响?
预训练深度神经网络嵌入广泛使用,然而在下游任务中它们的有效性各不相同。本文通过隧道效应假设研究了影响预训练深度神经网络嵌入进行域外泛化的因素。通过改变网络架构、训练数据集、图像分辨率和增强等条件来研究如何减轻隧道效应,并使用新颖的 SHAP - TrafficGPT:突破标记壁垒的高效长程交通分析与生成
TrafficGPT 是一个使用生成预训练模型和线性注意力机制解决长流分类和生成任务中的复杂挑战的深度学习模型,在分类任务中表现出卓越性能并达到了最新水平,在生成任务中,它与真实流量非常相似,并以低的 JS 散度和接近 0.5 的 F1 分 - 预训练深度神经网络之间的差异性:模型可靠性的新威胁
本研究主要探讨了不同模型动物园中 36 个预训练深度神经网络之间的准确性、延迟和体系结构的差异,发现了 1.23%-2.62%的准确性差异和 9%-131%的延迟差异,同时发现了已知深度神经网络体系结构(例如,ResNet 和 AlexNe - MM音乐乐器分类重新编程
本研究旨在探讨如何在数据稀缺情况下,重新编程预训练的深度神经网络来解决音乐信息检索中流行的乐器分类问题。实验证明,重新编程技术能够有效地利用为不同任务学习到的表征能力,使其在训练参数量大幅减少的情况下性能接近或甚至超过最先进系统,因此重新编 - ECCV模型的可转移性预测:自我挑战 Fisher 空间中的差异
该研究提出了一种新的转移度量标准,称为自我挑战 Fisher 判别分析(SFDA),用于评估每个先前训练的深度神经网络在下游任务中的可迁移性,并通过模型集成来筛选多个最具转移性的预训练模型。
- ICLR言语是否足矣?语言近似人类相似度评价
通过评估 611 个预训练模型的性能,我们提出了一种基于语言的相似性逼近方法,该方法比经典方法更便宜,也比基于深度神经网络的方法性能更优。此外,我们还开发了一种新型自适应标签收集流程,并提供了一个简明指南和所有数据。
- 黑暗中的一束光:工业计算机视觉中的深度学习实践
许多设备无法部署,普通对象的预训练数据集,以及潜在的偏见问题限制了大型预训练深度神经网络用于工业应用。本研究从太阳能电池片制造商的真实案例出发,构建了一个从零开始训练的神经网络,其参数更少、不依赖于第三方数据集,但性能与预训练深度神经网络相 - CVPRDEPARA:深度归因图用于深度知识可转移性
本文提出了 DEeP Attribution gRAph(DEPARA)来分析 PRe-trained Deep Neural Networks 中所学习的知识传递能力,应用于先前研究中很少探索的预训练模型选择和层选择问题,并进行了广泛的实 - 神经网络及其衍生领域的知识一致性
本文旨在分析预训练深度神经网络之间的知识一致性,并提出了一个泛化定义。方式是设计了一种任务不可知的方法来解开每个神经网络的原始中间层特征和表示一致知识的特征组成部分。这项工作可以用于不同应用,例如调整预训练网络以提高性能并解释基于知识蒸馏和 - 正则化深度网络的高效 K-Shot 学习
为了解决小规模数据下优化问题,我们提出了一种对预训练深度神经网络进行微调的简单而有效的正则化方法,它的核心策略是将模型参数聚类,确保聚类内的相似性和聚类间的差异性,提高参数搜索空间的正规性; 具体而言,我们使用强化学习搜索策略和递归网络来学