参与生成式 AI 开发中残疾人群体的民主平台
在解决偏见对边缘化人群(包括残疾人)的负面影响方面,我们通过履历审查研究,发现 GPT-4 在评估增强了与残疾相关的领导奖项、奖学金、专题演讲和会员的简历时存在偏见,并通过针对多样性、公平性与残疾正义原则来训练自定义 GPTs,量化地减少了这种偏见。我们还对 GPT-4 为其有偏决策辩解时所使用的直接和间接有能力主义类型进行了独特的定性分析,并提出了进一步偏见缓解工作的方向。此外,由于这些辩解可能源自包含人类表达的现实世界有偏见陈述的训练数据,我们的分析还建议了解决人类偏见的其他途径。
Jan, 2024
该论文采用一种方法来研究生成式 AI 工具对社会的影响,主要关注 ChatGPT 这一案例,评估其对社会各个领域的潜在影响,并阐述综合文献回顾的研究结果,包括正面效应、负面效应、新兴趋势和机遇领域,该分析旨在提供深入讨论的见解,从而激励政策、规范和负责任的发展实践,促进以人为中心的人工智能。
Mar, 2024
使用 AI 技术改善残障人士(PWD)的生活具有巨大潜力,但是如果没有考虑到公平性,这些技术可能会导致针对残障人士的不良影响。该研究通过风险评估和未来的研究路线图来探讨 AI 与残障人士之间的相互作用,以建立更公平、更包容性的算法。
Jul, 2019
本文旨在探讨将深度伪造(Deepfakes)技术作为一种辅助技术所具有的潜力,研究了 Nvdia 的新视频会议功能在自闭症患者中的应用可能性,提出了深度伪造技术为人机交互(HCI)带来的影响,并提出了需要进一步调查的开放性问题。
May, 2023
2023-2024 学年,ChatGPT 的广泛普及将对学术诚信产生影响,高中学生中 77% 报告过使用人工智能驱动的写作辅助工具从事不诚实行为,这种被 Chan(arXiv:2306.03358v2)称为 'AI-giarism' 的 AI 驱动写作辅助工具将使抄袭行为更加易于获取且难以检测,此外,这些担忧也引发了关于这一技术革命性质的更广泛问题,包括自主性、数据隐私、版权和公平性。本文旨在从社会公正的角度探讨生成型人工智能,研究这些模型的训练、固有的偏见以及检测人工智能生成写作中的潜在不公正之处。
Aug, 2023
在 AI-as-a-Service(AIaaS)背景下,我们对社会伤害的研究现状进行批判性总结,重点关注其影响,并提出开放性研究问题,以定义未来的研究方向。
Mar, 2024
通过质性调查,我们发现创意专业人士对生成式人工智能的推动对创造力的定义和如何使用人工智能支持他们的工作流程产生了重要的影响,并基于这些反思,探讨了如何设计在创新专业领域中的 “参与式人工智能”,以目前和未来协同 AI 中赋予创意专业人士更大的权力。
Mar, 2023
本文研究探讨了生成 AI 技术中,AI 加入真实数据之后可能会产生回馈循环并导致未来模型的降级和多样性降低的情况,从而产生社会影响。同时,对于如何缓解这种回馈循环以及降低未来技术模型降级的影响也提出了相关问题。
Jun, 2023
生成式 AI 为语言学习提供了重要机会。AI 工具如 ChatGPT 可以通过书面或语音聊天提供非正式的第二语言练习,学习者可以通过提示指定对话参数,如熟练水平、语言风格和讨论主题。AI 可以被指导给出修正性反馈、创建练习题或制定扩展学习计划。AI 可以帮助教师构建各种媒体的学习和评估材料。然而,学习者和教师都需要理解 AI 系统的局限性,这些局限性源于它们对人类语言的纯统计模型,从而限制了它们处理语言使用中微妙的社会和文化方面的能力。此外,AI 系统的创建涉及道德问题,并且在使用中存在实际限制,尤其是对于弱势群体。AI 工具的能力和多功能性很可能使它们成为许多人生活中宝贵而常用的伴侣(类似于智能手机),创造出一种超越简单工具使用的紧密联系。生态理论如社会物质主义对于研究用户和 AI 之间产生的共同行动机制非常有帮助,以及来自原住文化的人 - 物关系视角。
Mar, 2024