关键词neural network architectures
搜索结果 - 164
- 基于人工智能的 Webshell 检测模型的研究与应用:文献综述
通过对 AI-based webshell 检测领域的发展历程进行归纳总结,本文详细阐述了各个阶段的特点、核心算法和领域内仍存在的问题与挑战,同时对未来的发展趋势进行了预测。
- CVPR无监督领域适应结构搜索与自我训练用于地表覆盖图制作
通过将马尔可夫随机场神经架构搜索(MRF-NAS)与自训练无监督域适应(UDA)结合为单一框架,本研究在有限的计算预算下为土地覆盖映射任务搜索出高效且有效的轻量级神经网络,该网络在 OpenEarthMap 和 FLAIR#1 这两个近期数 - 状态空间模型的变分量化
使用离散状态空间隐马尔可夫模型、最新的神经网络架构和受向量量化变分自动编码器启发的训练过程,结合大数据集中成千上万个异构时间序列的预测任务是众多领域的一个关键统计问题。我们提出了一种新的预测模型,引入了离散后验分布和两阶段训练过程,从而提供 - 基于深度学习的 PET/CT 体积中肿瘤的分割:不同架构和训练策略的基准
癌症诊断的深度学习神经网络架构与训练策略在自动切割 PET/CT 图像中的应用,取得了良好的效果,为精确的肿瘤学诊断和更有针对性、有效的癌症评估技术的发展做出了贡献。
- 梯度网络
本文介绍了梯度网络(GradNets):一种参数化各类函数梯度的新型神经网络架构,通过增加特定约束确保与梯度函数的对应性。我们提供了一个全面的 GradNet 设计框架,包括将 GradNets 转化为保证表示凸函数梯度的单调梯度网络(mG - 未来技术对未来的预测:大型气象模型的进展
该论文回顾了大型模型,尤其是采用深度学习技术的模型在天气预报中的进展和应用,强调它们在改善传统预报方法方面的作用。这些模型利用卷积神经网络(CNN)、图神经网络(GNN)和 Transformer 等先进的神经网络架构来处理各种气象数据,提 - 同变图卷积神经网络用于各向同性均质各向异性微结构力学响应的表示
本研究提供具有异性组分的材料的有效均质化模型的神经网络体系结构,通过等变和张量基础运算,满足等变性和材料对称性原则,展示了在不同纹理和相位的随机体积元数据集上,这些网络体系结构提供了显著的性能改进。
- 深度神经网络的信息论泛化界
深度神经网络在实际应用中表现出卓越的泛化能力,本研究旨在通过信息理论的泛化界限来捕捉深度对于监督学习的影响和益处。通过从网络内部表示的训练和测试分布的 Kullback-Leibler(KL)散度或 1-Wasserstein 距离导出了两 - 正弦激活低秩矩阵用于参数高效学习
该研究提出了一个新的理论框架,将正弦函数整合到低秩分解过程中,以提高模型准确性和参数效率。该方法在 Vision Transformers(ViT)、大型语言模型(LLMs)、神经辐射场(NeRF)和 3D 形状建模中应用成功,展示了其广泛 - Transformer 网络的拓扑结构
通过拓扑理论的视角对变压器神经网络的表达能力进行理论分析,发现许多常见的神经网络架构可以嵌入到分段线性函数的前拓扑中,而变压器必须位于其拓扑完成中,并且指出这两种网络家族实例化了不同的逻辑片段:前者是一阶的,而变压器是高阶推理器,并且将其分 - 排列不变神经网络
传统机器学习算法通常基于假设输入数据以向量形式存在,重点关注以向量为中心的范式。然而,随着需要处理基于集合输入的任务的增长,研究界面对这些挑战的关注已发生了范式转变。近年来,像 Deep Sets 和 Transformers 这样的神经网 - 基于视觉触觉传感器的主动纹理识别的关键因素
本研究旨在探索利用基于视觉的触觉传感器进行机器人感知和织物纹理分类的主动感知策略。通过信息理论探索策略的实现,以最小化概率模型的预测熵和方差,我们对触觉织物识别中的主动抽样问题进行了形式化。通过消融研究和人类实验,我们调查了对于快速可靠的纹 - 通过人工合成的中间标签进行分区神经网络训练
通过将模型划分到多个 GPU 上并生成合成中间标签来训练各个部分,以减少数据通信和保持模型准确性为目标,该研究证实了该方法在减少内存和计算需求的同时实现了类似传统训练方法的测试准确性,从而减轻了训练大型神经网络的资源密集性,为更高效的深度学 - 深度学习的基本组成:范畴论方法
这篇论文提出了一种基于范畴论语言的深度学习的新数学基础,通过系统化现有方法并将其概念统一到一个框架中,研究了参数化性和双向性这两个主要性质,并将其应用于 backpropagation、神经网络架构和监督学习的建模中,提供了一个统一和组合的 - 测量深度神经网络的能量消耗与效率:实证分析与设计建议
调查了大规模神经网络训练的实际能耗,并介绍了 BUTTER-E 数据集,分析了数据集大小、网络结构和能量消耗之间的复杂关系,提出了一个能量模型,挑战了参数或 FLOP 减少是实现更高能效的最佳方法的假设,并建议在网络、算法和硬件设计上采用综 - Transformer 模型对学习低敏感性函数的简洁倾向
通过对变压器在随机输入变化的敏感性进行研究,揭示了其简约偏差以及频谱偏差,并发现低敏感性偏差与提高鲁棒性相关,并可作为进一步提高变压器鲁棒性的有效干预手段。
- FOAA: 多模态肿瘤分类的平铺型外算术注意力
通过融合多模态医疗数据,利用不同模态之间的互补性和相关性,本研究提出了一种简单有效的方法,受注意力机制的启发,从不同模态中融合具有区别性的特征。我们提出了一种新颖的注意力机制,称为 Flattened Outer Arithmetic At - 多条件图传播的神经架构搜索
使用基于图扩散的神经网络架构搜索方法,通过离散条件图扩散过程生成高性能神经网络架构,并应用多条件无分类器引导方法来共同施加高准确性等约束。
- 基于遗传编程的损失函数学习的快速高效局部搜索
本文提出了一种用于任务和模型无关的损失函数学习的新型元学习框架,通过混合搜索方法,首先使用遗传编程找到一组符号损失函数,然后对学习到的损失函数进行参数化和优化,实验证明该框架具有多样性与性能,在各种任务和特定神经网络结构上提供了改进的收敛性 - 图神经网络中的非线性层扩散
研究了非线性拉普拉斯在 Sheaf 神经网络中的引入对图相关任务的潜在好处,重点在于理解这种非线性对扩散动力学、信号传播和离散时间设置中神经网络架构性能的影响。通过使用真实和合成数据集验证不同模型版本的实际有效性,该研究主要强调了实验分析。