位置:机器学习中接受负面结果
本研究分析了 35 年来自然语言处理和机器学习中论文的状态,将其分类为正面态度和负面态度,利用 SciBERT 训练了一个模型来预测论文的态度,并发现近年来负面态度的论文数量增加,而且更具有影响力。
Feb, 2022
通过研究高度引用的机器学习论文,本文发现只有少数论文能够说明其与社会需要的联系,而且更少讨论负面潜力。同时,本文还发现,机器学习研究中经常突出强调的几个价值观,如性能、泛化、量化证据、效率、建立在过去的工作基础之上和创新性等,往往在支持权力集中方面存在着假设和影响。最后,作者发现高度引用的论文越来越多地与科技公司和精英大学有着紧密的联系。
Jun, 2021
本文批判性地研究了题为《Show Your Work: Improved Reporting of Experimental Results》的一篇论文,其中提到的评估指标存在偏差和使用错误假设,我们提出了一种无偏的替代方法,并通过统计模拟获得了实证证据。
Apr, 2020
通过研究机器学习中的数据泄露和出版偏见等因素,本研究提出了一种新颖的随机模型来估计真实准确性,并纠正了过度乐观的诊断结果,从而提供了更真实的机器学习性能评估。
May, 2024
我们警告人们对机器学习领域的经验研究常常存在着一种不完整的理解,这导致实验结果不可复制、发现不可靠,进而威胁到该领域的进展。为了克服这种令人担忧的情况,我们呼吁更多地意识到获得知识的多样性方式以及一些认识论上的限制。特别是,我们认为当前大部分经验机器学习研究实质上是确认性研究,而应该视为探索性研究。
May, 2024
机器学习的出版流程存在缺陷,新的出版方式虽有助于提高包容性和教育性,但仅仅更换格式不能解决现有问题。该论文认为,影响机器学习研究可达性的根本原因不在于论文流程,而是出版和研究过程中的问题。本论文探讨了这些问题,并提出了一些潜在的解决方案。
Apr, 2021
通过质疑传统的反对乌托邦思维,本论文探讨了应用推荐系统、A/B 测试、代理度量、深度学习技术以及奖励优化推荐之间的联系。
Feb, 2024
本文通过对 2020 年 NeurIPS 会议发表的关于算法系统负面影响的声明进行定性主题分析,归纳提取出如何表达影响、影响领域和如何减轻负面影响等主题,旨在对 NeurIPS 会议更好地考虑潜在影响提出建议。
May, 2021