- 增强物联网安全的前沿深度学习方法
提出了一种创新性的基于深度学习的卷积神经网络和长短期记忆网络的物联网环境入侵检测系统,在 CICIDS2017 数据集上实现了 99.52% 的准确率,具有实时处理能力、可扩展性和低虚警率,成功应用于当今的物联网网络,对自适应学习技术和跨领 - Vision-LSTM: xLSTM 作为通用视觉主干网络
将 xLSTM 构建模块应用于计算机视觉领域,ViL 展现出成为新的通用骨干框架的潜力。
- 经过筛选的语料库训练(FiCT)证明语言模型能够从间接证据中进行概括
使用过滤语料库训练的方法,本文研究了语言模型对于通过间接证据进行语言普适性推理的能力,并将该方法应用于 LSTM 和 Transformer 语言模型,结果显示它们对于语言普适性推理具有相同且出乎意料的良好表现。
- 加密货币价格预测的深度学习模型评述:实施与评估
通过评估多种深度学习模型,我们发现单变量 LSTM 模型变体在加密货币预测方面表现最佳,并对 COVID-19 期间的价格进行波动性分析。
- 外币时间序列预测的现成神经网络架构的成本
本研究旨在比较不同的长短期记忆(LSTM)神经网络结构和专门用于外汇市场预测的 ANN 架构之间的性能和资源需求,包括模型的执行时间、内存和计算资源消耗。我们的目标是证明专门的架构在外汇市场预测方面不仅能够取得更好的结果,而且在资源消耗和执 - 基于长短期记忆网络的增强 AdaBoost 虚拟现实体验预测
基于改进的 AdaBoost 的长短期记忆网络(LSTM)的分类预测算法用于预测虚拟现实(VR)用户体验。该算法通过结合 LSTM 和 AdaBoost 算法,在虚拟现实领域的相关研究中取得了显著进展,提高了模型的准确性和泛化能力。
- xLSTM:扩展的长短期记忆
我们修改并扩展 LSTM 的门控机制和记忆结构,得到了 xLSTM 模型,该模型在性能和规模上与最先进的 Transformer 模型和状态空间模型相比表现出色。
- DeepVARMA:化工行业指数预测的混合深度学习和 VARMA 模型
通过将 LSTM 模型用于去除目标时间序列趋势和学习内生变量表示,再结合 VARMAX 模型对去趋势目标时间序列进行预测,该研究提出了一种新的预测模型 DeepVARMA 及其变体 Deep-VARMA-re 和 DeepVARMA-en, - VMRNN:整合 Vision Mamba 和 LSTM 实现高效准确的时空预测
本文提出了一种以 VMRNN 单元为核心的网络结构,将 CNNs 和 ViTs 与 RNNs 相结合,以有效地处理时空预测任务,并通过广泛的评估表明该方法在多种任务上取得了竞争性的结果,同时保持了较小的模型尺寸。
- ACL通过少样本学习新词性别研究语言模型中的语法抽象
人们可以从很少的示例中学习一个新词并推断其语法属性。我们从心理语言学中得到启发,进行了一个名词学习实验,以评估 LSTM 和仅解码器的 Transformer 模型是否能够在法语中实现类似人类的语法性别抽象化。我们发现两种语言模型可以有效地 - 多级产品类别预测通过文本分类
应用先进的机器学习模型(特别是 LSTM 和 BERT)进行文本分类以预测零售行业中的多个类别,并演示了如何应用数据增强技术和焦点损失函数可以显著提高使用强大的巴西零售数据集将产品分类到多个类别的准确性。
- 通过强健的全局特征提取增强自动调制识别
自动调制识别在无线通信系统中起着关键作用,我们提出了一种名为 TLDNN 的混合深度框架,将 Transformer 和 LSTM 的结构相结合,通过自注意机制建模信号序列的全局相关性以增强时间依赖性的捕捉,并采用段替换(SS)的数据增强策 - 重访主题指导语言模型
一项最近的自然语言处理研究旨在结合语言模型和主题模型,这些主题引导的语言模型通过将主题模型与神经语言模型相结合,采用无监督学习方法来发现文档级别的词汇使用模式。本文比较了这些方法在标准化环境中的效果,并发现这些方法中没有任何一种超越了标准 - 增强时空上下文:单目视频中具有时态一致性的稳健 3D 人体动作恢复
提出了一种从单眼视频中恢复时间一致的 3D 人体姿势、形状和动作的方法,通过使用具有身体感知特征表示和独立的逐帧姿势和相机初始化,结合自相似性和自注意力等技术进行时空特征聚合,该方法提供了增强的时空上下文,可在各种复杂场景下得到更准确的姿势 - KDDLSTMs 能否有效地进行少样本学习?
深度学习需要大量数据来学习新任务,限制了其适用于数据充足的领域。元学习通过学习如何学习克服了这一限制。我们重新审视了元学习方法并在现代少样本学习基准上进行了测试。我们发现,在简单的少样本正弦波回归基准上,LSTM 意外地优于流行的元学习技术 - 多尺度循环 LSTM 与 Transformer 网络用于深度补全
激光雷达深度补全是深度估计的一个新的热门话题,在此任务中,颜色空间和深度空间的特征融合是关键和难点。本文将经典的 LSTM 和 Transformer 模块从自然语言处理迁移到深度补全中并进行相应的重新设计,通过使用遗忘门、更新门、输出门和 - 学生成功建模:最重要的因素
利用深度学习模型和 LSTM 层,研究了大规模收集的 121 种不同类别的特征对高等教育学生保留率的影响,早期对毕业和风险学生的区分能力良好,在后期对退学和转学的区分能力依赖于随时间累积的数据,提供个体层面的预测并解决转学结果问题,为教育结 - 黑盒模型即足以侵犯隐私:以智能电网预测模型为例
该研究探讨了与预测模型相关的潜在隐私风险,重点关注其在智能电网背景下的应用。深度学习(如 LSTM)等基于深度学习的预测模型在优化智能电网系统等多个应用中发挥关键作用,但也引入了隐私风险。研究分析了预测模型泄漏全局属性和对智能电网系统隐私的 - DeLELSTM:基于分解的线性可解释 LSTM,捕捉时间序列的瞬时和长期效应
提出了一种基于分解的可解释 LSTM(DeLELSTM)来改进 LSTM 的可解释性,并在三个实验数据集上对其有效性和解释性进行了演示。
- 问题分类的集成方法:集成 Electra Transformer、GloVe 和 LSTM
本文介绍了一种新颖的集成方法,使用先进模型 Electra、GloVe 和 LSTM 进行问题分类。该提出的模型在 TREC 数据集上进行训练和评估,这是一个问题分类任务的公认基准。集成模型综合了 Electra(一种基于 transfor