超越排行榜:应对研究问题的见解和部署挑战
本文中对已进行的生物医学图像分析挑战进行全面分析,展示了挑战的重要性,并表明缺乏质量控制具有重要影响,因此建议采用最佳实践指南以避免问题,并针对未来需解决的开放性研究问题进行定义。
Jun, 2018
数据科学研究正在经历一场由技术、互联网和不断增长的计算能力驱动的革命。我们在此提出,需要创造性地利用科学研究和算法开发社区作为强大创新的轴心,通过关键评估、社区实验和集众智等方式,让这些社区参与科学发现探索,从而带来发展新的数据驱动、可复现且经过充分基准测试的算法解决方案,来解决当前感兴趣的基础性和应用性问题。通过协调社区参与高度复杂和大规模数据的分析,可以找到最佳应对这些挑战的鲁棒方法学。当社区参与采用竞赛形式,也被称为挑战赛时,分析方法的验证在本质上得到解决,建立了性能基准。最后,挑战赛促进跨学科开放创新,创建能够直接或间接协作解决重要科学差距的社区。通过共同努力,参与者可以解决诸如健康研究、气候变化和社会公正等各种重要问题。最重要的是,挑战赛可以催化和加速将复杂数据合成知识或可执行信息的过程,应被视为一个产生持久社会和研究贡献的强大工具。
Dec, 2023
采用临床试验评估新药疗效的同时,对医学图像分析领域进行基准测试需要通过挑战赛,然而多个医学图像分析挑战赛的分析表明,其质量控制标准可能存在巨大差异,因此本文针对参与者方法的可复现性问题提出了一个观点,尝试寻找替代性解释并重现算法提交结果,结果表明挑战赛排名可能不够可靠。
Jul, 2023
挑战可以被看作是一种激励参与者解决严肃任务的游戏,竞争组织者必须制定有效的游戏规则,并且这些规则有多个目标,除了使游戏对参与者有趣之外,还可能包括解决现实问题、推进科学或技术领域、进行科学发现和教育公众。本文提供了为挑战创建强大计划的指南。
Jan, 2024
研究了如何在挑战设置中评估不同竞争者(算法)的表现,分析了 MeOffendEs @ IberLEF 2021 比赛的结果,并提议通过重采样技术(引导)进行推理,以支持挑战组织者的决策。
May, 2023
本文提出了一种基于 challengeR 开源框架的集成分析和可视化方法,以了解算法的相对和绝对性能,并证明该方法在医学图像分析领域和其他领域中具有重要应用价值。
Oct, 2019
BIAS statement proposes recommendations to standardize the reporting of biomedical image analysis challenges to improve their transparency, interpretability, and reproducibility.
Oct, 2019
通过对 IEEE ISBI2021 和 MICCAI2021 举行的 80 个比赛的统计分析发现,当今图像分析方法中常用的成功算法有多任务学习和 / 或多阶段管道、强调数据增强、图像预处理、数据管理和后处理;获胜团队常常具有医学图像分析的博士学位、五年的经验和四年的深度学习经验;为获得高排名的团队,他们注重将评价指标反映到方法设计中,并侧重于分析并处理失败案例,但只有 11% 的算法完全解决了领域问题。
Mar, 2023
本文介绍 “医学分割十项全能赛(MSD)” 的比赛举办及其结论,提出了一种方法,能够在多个任务上表现良好,同时兼顾算法的泛化性能;冠军算法的延续优异表现,验证了这个假设。
Jun, 2021
学术挑战是推动现有技术发展、将特定主题和问题置于科学界关注的有效手段,同时也是缩小受限社群在访问和参与塑造研究领域方面的差距的重要方式。本文回顾了过去几年里在机器学习及相关领域内最具影响力的竞赛,并分析了各个学科领域的挑战。对科学挑战的目标、主要成就和未来几年的期望进行了审视。
Dec, 2023