迈向道德多模系统
近期的人工智能进展为学术同行评审带来了机遇与风险,讨论主要围绕在学术期刊出版中的剽窃和作者权益,忽视了同行评审所处的更广泛的认知、社会、文化和社会认知等问题;论文强调了:AI 驱动的同行评审的合法性需要进行批判性评估,包括其在更广泛的认知、社会、道德和法规因素上的利弊,并与学术社区中定义适当行为的道德和认知规范的一致性。
Sep, 2023
该论文讨论了神经机器翻译系统中人工智能所面临的伦理挑战,强调开发人员确保公平性和文化敏感性的必要性。通过实证研究和文献综述,我们考察了神经机器翻译开发的各个阶段中涉及的伦理问题,包括数据处理、隐私、数据所有权和同意。此外,我们还研究了正义和公平问题,探讨了人工智能系统与人类之间责任的分配,并强调人类监督在维护神经机器翻译伦理标准方面的重要作用。最后,我们还从圣经角度讨论了神经机器翻译的社会影响以及开发者更广泛的伦理责任,将他们视为对自己创造物的社会后果负责的守护者。
Apr, 2024
本文提出了评估生成 AI 系统社会影响的标准方法与分类,并基于技术系统和社会分别探讨了七种与五个大类共计 21 个社会影响类别,并提出了对现有评估的限制进行分析的建议,并为 AI 研究社区建立了一个评估存储库来贡献现有的评估。
Jun, 2023
机器学习在医疗人工智能系统中的应用,从传统和统计方法转向深度学习模型甚至最近的生成模型。近年来,发现了支持多模态数据集成的广泛可用的深度学习架构,尤其是针对图像的。将多种模态融入到这些模型中是一个蓬勃发展的研究课题,提出了独特的挑战。本文讨论了针对医学基于图像的临床决策支持模型的多模态人工智能的五大挑战(表示、融合、对齐、翻译和协同学习),并调查了近期解决这些挑战的方法。我们最后讨论了该领域的未来,并提出了在成功的临床模型及其在临床环境中的转化方面应进一步阐明的方向。
Nov, 2023
本文探讨了 AI 和 NLP 领域中的伦理学问题,重点关注了自动化伦理判断的 Delphi 模型,并提出了批判性的观点和如何通过透明度、民主价值观和简单明了的问责机制来推动机器伦理学的发展。
Nov, 2021
通过对 OpenAI 的 ChatGPT 进行定性研究,发现大规模语言模型的伦理风险主要包括偏见性和毒性,当前的基准测试无法解决这些问题,为了避免语言模型应用中出现伦理风险,需要制定可靠的基准测试和实施设计。
Jan, 2023
人工智能伦理和工程领域尚未充分认识到大型语言模型(LLMs)对动物将产生巨大影响,而本研究构建了一个评估系统来评估 LLM 对动物利益的考虑度,并指出模型的结果可以通过更完善和验证的系统得到改善和缓解,为将动物伦理纳入人工智能提供了一种可能的方法。
Mar, 2024
人工智能技术应遵循人类规范,以更好地服务社会,避免传播有害或误导性信息,尤其是在会话式信息检索中。我们提出了一种将伦理对齐与初始伦理判断阶段相结合的工作流程,用于高效的数据筛选。我们提出了 QA-ETHICS 数据集,它源自 ETHICS 基准,并通过统一场景和标签意义作为评估工具。此外,我们还引入了 MP-ETHICS 数据集,以评估多个伦理概念下的场景,如公平和道德规范。此外,我们提出了一种新方法,在二进制和多标签伦理判断任务中取得了最佳性能。我们的研究为将伦理对齐引入会话式信息检索工作流程提供了实用方法。数据和代码可在此 https URL 中获得。
Oct, 2023
人们对人工智能系统的道德评价是否与人类生成的道德评价相似的问题对于人工智能的进展具有重要意义。我们进行了一项改编自 Allen 等人(2000)提议的改进型道德图灵测试(m-MTT),通过要求参与者区分真实的人类道德评价和由一个流行的先进 AI 语言模型 GPT-4 进行的评价,代表性的 299 名美国成年人首先在对源泉不知情的情况下对道德评价的质量进行了评分。他们惊人地发现,在几乎所有维度上,包括美德、智力和可靠性,他们评价 AI 的道德推理质量高于人类的,这与 Allen 等人所称的相对 MTT 相一致。接下来,在确定每个评价的来源(人类还是计算机)的任务中,人们的表现明显高于偶然水平。虽然 AI 没有通过这个测试,但不是因为它的道德推理不如人类,而是可能因为它的被认为是卓越的特质以及其他可能的解释。能够产生被认为在品质上优于人类的道德回应的语言模型的出现引起了人们对人们可能不加批判地接受可能有害的道德指导的担忧。这种可能性突显了在道德问题上对生成语言模型进行保护的必要性。
Apr, 2024
人工智能有潜力以大数据揭示学生学习模式,但引发了伦理和可信问题。本文讨论了用于解决高中人工智能教育中的伦理和可信问题的技术组件,及 ALLURE 聊天机器人平台,以协助学生解决魔方问题。
Jan, 2024