NLP 众包的伦理学意义超越公平薪酬
该论文研究了众包的研究,重点关注了众包研究的合适指定和机器学习研究对于研究监督所带来的独特挑战。该论文发现在确定众包工作是否属于人类研究对象方面存在两个挑战,同时呼吁实施相关政策以解决这些问题。
Jun, 2022
本次调查分析了 NLP 模型的社会影响,探讨了 NLP 算法中存在性别、种族和文化偏见的根源,定义了公平性,并说明了 NLP 各个子领域如何减少系统存在的偏见,最终讨论了未来研究如何消除 NLP 算法中的有害偏见。
Mar, 2022
通过批判性文献综述和 MTurk 工作者的调查,我们发现当前在亚马逊众包平台中进行自然语言处理数据收集的方法在考虑工作者的角度上存在问题,因此我们提出了关于公平支付、工作者隐私、数据质量和工作者激励等方面的最佳实践,以更好地尊重工作者权益并提高数据质量。
Nov, 2023
本文讨论临床自然语言处理技术在临床实践中的潜力和现有的隐私保护问题,并提出了一些满足隐私保护的数据来源,同时注意到可能导致社会有害应用的偏见和实证研究的局限性。
Mar, 2017
本研究探讨人工智能领域的伦理规范问题,发现虽然现有的一些 AI 会议和出版物已经开始确立人类数据收集的协议和规范,但是这些规范往往被作者忽视,相比之下,在心理学领域进行与众包工人的合作时,生活方式和其他信息的道德审查披露要频繁得多。
Jun, 2023
本文分析了先前的和当前的 NLP 研究中所考虑的伦理方面,通过比较其他学科的研究,比较了 ACL 文集的趋势,发现 NLP 研究中的规范伦理审查正在迅速上升。
Jun, 2021
本文从自然语言处理的角度,研究了康德的义务论伦理学中的普遍化原则和知情同意的尊重,提供了四个案例研究,以说明这些原则如何与自然语言处理系统结合。同时提出了避免这些系统中的道德问题的建议。
Oct, 2020
我们通过概述一些重要的与哲学相关的伦理概念并系统调查现有的有关道德自然语言处理的文献,回应这一研究空白,因为大多数论文对术语的定义不清晰且不符合哲学定义,希望我们的工作能引导到更加明晰、谨慎和严谨的语言技术道德讨论。
Oct, 2023