ConKeD++ -- 提高视网膜图像配准的描述符学习:对比损失的全面研究
利用深度学习的方法,本研究提出了一种名为 ConKeD 的新型描述符,结合领域特定关键点实现视网膜图像配准,并通过新颖的多正面多负面对比学习策略,展示了比传统方法更好的性能,具有潜在的发展和应用前景。
Jan, 2024
RetinaRegNet 模型在不需要对任何视网膜图像进行训练的情况下,通过使用来自扩散模型的图像特征建立两个视网膜图像之间的点对应关系,实现了各种视网膜图像注册任务的最先进性能。该模型通过逆一致性约束和基于变换的异常点检测器去除估计的点对应关系中的异常值,并通过二阶图像配准和更精确的三阶多项式变换处理大变形,已在三个视网膜图像数据集上证明了其优越性能。
Apr, 2024
通过引入新颖的人群模型和基于距离相关性的解缠结损失函数,我们成功实现了视网膜底图像的控制性和高度逼真的生成,并揭示了患者属性和技术混杂因素在图像生成中的复杂关系。
Feb, 2024
提出一种名为 CoReFace 的新方法,它将样本引导的对比学习应用于特征表示学习,以在特征表示学习中直接规范图像级别关系。 CoReFace 的实验表明其与现有最先进方法具有极高的竞争力。
Apr, 2023
通过使用深度学习,我们提出了一种无需预定义注册示例的机制来进行医学图像分析中的图像注册,包括仿射和可变形图像注册,性能可与传统图像注册相当,但速度快了几个数量级。
Sep, 2018
该研究介绍了一种用于增强医学图像领域普适性的新框架,特别关注于利用未标记的多视角彩色底片照片。与依赖单视图成像数据且在不同临床场景中通用性有挑战的传统方法不同,我们的方法利用未标记的多视角成像数据中的丰富信息来提高模型的稳健性和准确性。通过结合类别平衡方法、测试时间适应技术和多视角优化策略,我们解决了常常影响机器学习模型在实际应用中性能的关键问题 —— 领域偏移。与现有基线方法和最先进方法相结合,实验证明我们的方法在与其它领域普适性和测试时间优化方法的比较中始终表现出色。我们还展示了我们的在线方法改进了所有现有技术。我们的框架改进了领域普适性能力,通过促进对新的未知数据集的在线适应,为实际部署提供了实用解决方案。我们的代码可在此 https URL 中获得。
Mar, 2024
提出了一种基于卷积神经网络 (ConvNet) 的方法,用于学习本地图像描述符,可用于显着改善补丁匹配和三维重建,该方法使用多分辨率 ConvNets 学习关键点描述符,并且提出了一个新的数据集,包含比当前可用的 Multi-View Stereo(MVS)数据集更多的图像和正负对应物,并且在视角,尺度和光照变化方面具有更好的覆盖范围。该文对基于提出的描述符学习的补丁匹配和三维重建任务进行了评估,实验结果表明,在评价任务中,提出的描述符优于当前现有的最先进描述符。
Jan, 2017
本文提出了一种全新的称为 “SuperRetina” 的端对端论文匹配方法,它是第一个具有可共同训练关键点检测器和描述符的方法。该算法是处于半监督状态下进行训练。经过多项测试,得出该算法的性能表现优秀。
Jul, 2022
本文提出了一种基于加权乘累积损失函数的级联卷积色彩恒常性算法 (C4),可以改善回归学习的鲁棒性,并在独特的框架下实现数据集 (不同相机和场景) 的稳定泛化能力。与最先进的方法相比,实验结果表明,该算法在公共 Color Checker 和 NUS 8-Camera 基准测试中表现出卓越的性能,特别是对于较难的场景。
Dec, 2019