使用基于分区标签注意力的自动 ICD 编码网络
采用引导自我关注机制的卷积神经网络模型对医学图像进行语义分割,能够更好地捕捉图像中的上下文依赖关系,去除冗余的信息提取并集成本地特征和全局依赖,强调相关特征关联,从而取得更好的分割效果。
Jun, 2019
本文提出了一种基于注意力机制的双向 LSTM 模型,使用卷积神经网络学习句子嵌入,利用上下文信息预测文本分段,相比现有的竞争基准方法,在三个基准数据集上的 WinDiff 分数提高了约 7%。
Aug, 2018
该研究提出了一种新颖的半监督图像分割方法,该方法同时优化了监督分割和无监督重建目标,并使用了注意机制。使用未标记的和少量标记的图像进行训练,该方法在大脑肿瘤和白质高信号分割等应用中表现优异。多次尝试后,发现交替训练比联合训练成本更低且性能更好,同时,该注意力机制有助于更好地识别深层次图像特征。
Jul, 2019
提出了一种使用自注意力作为额外损失项的新架构,以在联合潜在空间中表示图像和文本;在 MS-COCO 和 ARCH 两个基准数据集上进行的实验结果表明,该方法具有很好的效果。
Mar, 2022
对于医学成像中的混合 CNN-Transf/Attention 模型进行了系统回顾,研究了主要的结构设计、突破、机遇和挑战,同时引入了基于该模型的数据驱动域泛化和适应方法的综合分析框架。
Jul, 2023
本篇论文探讨了在 MCTest 数据集上应用基于神经网络的层次化注意力机制的机器理解和问答任务,实验结果表明这种方法大幅度超越之前的深度学习方法。
Feb, 2016
提出一种利用 LSTM 网络同时学习句子级别分类任务和序列标注任务的模型,通过语义相关性对单词进行加权的稀疏注意力机制,该方法在 ATIS 和 TREC 数据集上表现优于基准模型。
Sep, 2017
本文提出了一种融合上下文语境的自动图像描述算法,通过自下而上的计算和语义关注的上下文交互作用,成功在 Microsoft COCO 和 Flickr30K 两个公开基准测试中取得了明显的优于现有算法的结果。
Mar, 2016
本文提出了一种利用深度学习技术中的循环记忆 - 关注模块来实现图像多标签分类识别的新方法。通过不使用候选区域提取方法,从卷积特征图中定位注意区域,并使用 LSTM 子网络对这些区域进行语义标记和全局依赖性的序列预测。试验表明该方法在识别准确率和效率上均优于现有技术。
Nov, 2017
本研究提出基于 Transformer 的全局与局部信息探索与提炼方法,在跨模态视角下探究图像字幕生成,并在 COCO 测试集上取得了 129.3 的 CIDEr 分数。
Feb, 2020