ImageCLEFmed Caption 2020 任务的竞争性深度神经网络方法
本篇研究旨在利用自动化文本生成技术从放射学图像中提取诊断说明,以辅助医疗专业人员减少临床错误并提高工作效率,目的是提供既能够增强报告质量和效率的工具,也能够对临床实践和生物医学领域的深度学习研究产生重大影响的方法。
May, 2024
该研究介绍了密集报告任务,提出了一种全卷积定位网络(FCLN)架构来联合处理图像的局部定位和描述,在视觉基因组数据集上进行了评估,证明相比现有技术的基线,其速度和准确性都有所提高。
Nov, 2015
我们的研究提出了一种改进的医学图像描述生成方法,通过将概念检测集成到注意机制中。该方法利用先进模型识别医学图像中关键概念,并将其纳入描述生成过程中。结果表明,我们使用的 Swin-V2 模型在概念检测任务中,在验证集上达到 0.58944 的 F1 分数,在私有测试集上达到 0.61998 的 F1 分数,位列第三。对于描述预测任务,我们的 BEiT+BioBart 模型结合概念集成和后处理技术,在验证集上取得 0.60589 的 BERTScore,私有测试集上取得 0.5794 的 BERTScore,位列第九。这些结果突显了概念感知算法在生成精确和上下文恰当的医学描述方面的有效性。研究结果表明,我们的方法显著提高了医学图像描述的质量,突出了它在改善医学图像解释和文档化,并促进改善医疗结果方面的潜力。
Jun, 2024
提出了一种利用深度卷积神经网络的 CBMIR 系统,该系统在医疗图像分类任务中取得了平均 99.77%的分类准确度和 0.69 的平均平均精度,是用于检索多模态医学图像的最佳方法。
Mar, 2017
提出了一种文本 / 图像深度学习系统,通过融合自然语言处理技术相互作用,在病人扫描图像中生成语义标签,预测辐射学水平中的语义主题并自动生成关键词。
May, 2015
本文在图像字幕生成方面,提出了一种仅利用卷积神经网络生成字幕的框架,通过并行计算,训练速度比基于 LSTM 的模型快 3 倍,同时在 MSCOCO 图像字幕数据集上获得了比 LSTM 更高的评估得分。
May, 2018
本文介绍了使用预构建图嵌入模块(图卷积神经网络建模)来辅助放射图像报告生成的方法,该方法可以对多种疾病发现进行专门的特征学习并建立它们之间的关系,同时提出了用于医学图像报告的新的评估指标,并在公开数据集(IU-RR)上展示了该方法的优异性能。
Feb, 2020
通过结合卷积结构和近似 top-k 排名目标,利用深度神经网络的特征,改进了多标签图像注释,并在 NUS-WIDE 数据集上实现了比传统视觉特征高大约 10% 的性能表现,提出了一种有效的方法。
Dec, 2013
本文介绍了一种解决 2024 年 NICE 的 Topic 1 零射击图像字幕挑战的方法,通过检索增强和字幕评分方法有效地增强图像字幕,利用图像字幕模型生成的高质量字幕作为训练数据,利用基于手工模板的大规模视觉 - 语言预训练模型(OFA)执行图像字幕任务,并将字幕级策略与检索增强策略相结合,以生成更高质量、更匹配和语义丰富的字幕。基于这种方法,在排行榜上排名第一,在所有其他指标上都取得了第一名的成绩。
Apr, 2024