基于显著性的序列图像关注与多集合预测
我们提出了一种新的显著性物体检测框架 (FIPGNet),它是一个具有特征交互策略的金字塔嫁接网络。该方法利用注意力机制和特征交互策略,解决了当前金字塔嫁接网络模型中显著目标定位的问题。实验证明,该方法在四个指标上超过了当前 12 种显著性物体检测方法。
Jul, 2024
运用修改的 Sigmoid 函数作为注意机制,激活和调节来自帧差分图的运动信号,通过逐对关注图与原始视频帧的 Hadamard 积突出感兴趣的运动随时间的演变,用于学习改进的运动提醒,并作为模型与视频数据之间的适配器,弥合传统的 ' 盲目运动提取 ' 与提取相关感兴趣运动之间的差距。
Jul, 2024
我们提出了一种用于预测图形设计文档中视觉注意力的模型,该模型是首个尝试使用基于深度学习的模型预测文档区域被凝视的空间注意力和动态时间顺序。通过提出的两阶段模型,我们能够预测图形设计文档中的动态注意力,并在眼动实验中显示出比现有模型更好的性能。
Jul, 2024
本文介绍了一种新颖的全局 - 局部注意机制用于关系分类,通过将全局注意力与局部关注度相结合来提升全局关注度。此外,我们提出了创新的硬与软定位机制,以识别局部注意的潜在关键字。通过同时融入硬和软定位策略,我们的方法对有效关系分类的语境线索提供了更加细致全面的理解。我们在 SemEval-2010 任务 8 数据集上的实验结果显示了我们的方法相对于前期关注机制的优越性能。
Jul, 2024
在本文中,我们提出了基于双模态深度学习结构和注意力机制的情感分类方法,使用文本和语音数据进行训练和测试,并报告了不同结构的详细细节和性能分析结果。研究结果表明,使用不同类型数据(文本和语音)训练的深度学习结构优于仅使用文本或语音训练的结构,并且我们提出的基于注意力机制的双模态结构在情感分类中优于现有的系统。
Jun, 2024
通过对豁免现象的分析,这篇论文探讨了基于 Transformer 架构的大型模型中注意力机制中普遍存在的高强度关注第一个元素的现象,从而有助于开发关注分布的技术,如 Key-Value(KV)Cache 压缩和无限外插法。
Jun, 2024
通过细致研究和可视化大型语言模型(LLMs)中的注意力分布,本研究发现注意力汇的存在可以通过在提取信息时实时优化的了解,从而提高 LLMs 的准确性并避免权重调整。
Jun, 2024
通过引入多个模式层到属性模型中,整合了图像内容的语义和隐藏层。利用 Word2Vec 方法量化词向量并通过词嵌入卷积神经网络进行评估,实验结果显示该方法可以将离散特征转化为连续特征,从而降低特征预处理的复杂性,并通过卷积神经网络的优秀特征分析特性改善图像特征评估模型的鲁棒性,目的是改进现有的图像特征识别方法并消除评估过程中的主观影响。模拟结果表明该创新方法是可行的,有效地增强了生成表示中的特征。
Jun, 2024
用注意机制来设计神经操作器,在函数空间中进行 Transformers 的研究,证明其作为实践中的 Monte Carlo 或有限差分近似算符,同时介绍了函数空间泛化的 patching 策略和相关神经操作器的类,证明其在注意力函数空间表述和神经操作器中的应用的潜力。
Jun, 2024