聊天机器人中的偏见与公平性概述
本次调查分析了 NLP 模型的社会影响,探讨了 NLP 算法中存在性别、种族和文化偏见的根源,定义了公平性,并说明了 NLP 各个子领域如何减少系统存在的偏见,最终讨论了未来研究如何消除 NLP 算法中的有害偏见。
Mar, 2022
大型语言模型中的社会偏见评估和缓解技术的综述,介绍了社会偏见与公平的概念、评估指标和数据集,以及介绍了干预方法的分类和研究趋势,帮助研究人员和实践者更好地理解和防止偏见在大型语言模型中的传播。
Sep, 2023
调查表明,人工智能领域中存在各种偏见和不公,因此机器学习研究人员定义了公平性的分类,以解决现有 AI 系统中的偏见问题。此外,调查还考察了在 AI 的不同领域和子领域中,现有技术的问题及其应对措施,以期鼓励研究人员在其各自领域中研究此问题。
Aug, 2019
大语言模型带来了强大的性能和发展前景,并广泛应用于现实世界。然而,这些模型可能从未经处理的训练数据中捕捉到社会偏见,并将其传播到下游任务。本文全面回顾了关于大语言模型中的公平性的相关研究,介绍了中等规模的模型和大规模的模型分别从内在偏见和外在偏见的角度引入了评估指标和去偏方法,并讨论了公平性发展中的挑战和未来方向。
Aug, 2023
该论文从技术、道德和法律等多个角度出发,全面调研了与机器人学习中公正性相关的挑战和最新进展,并讨论了不同领域中有偏见所导致的不公正后果及其应对策略,旨在为公正机器人学习的开发铺平道路。
Jul, 2022
人工智能系统中解决公平性和偏差的重要性不可低估。本文填补了大型多模态模型在公平性和偏差研究方面相对于大型语言模型的缺口,提供了 50 个数据集和模型的示例以及影响它们的挑战;我们除了文献中已知的内在偏差和外在偏差两种方式外,还确定了一种新的偏差量化方法(preuse);我们批判性地讨论了研究人员面对这些挑战时采取的各种方式。我们的方法使用了两个稍有不同的 Google Scholar 搜索词,结果显示出 “大型多模态模型中公平性和偏差” 的搜索词的结果为 33,400 个链接,“大型语言模型中公平性和偏差” 的搜索词的结果为 538,000 个链接。我们相信这项工作有助于填补此领域的研究空白,并向研究人员和其他相关者提供处理多模态人工智能中公平性和偏差问题的见解。
Jun, 2024
本文全面调查了基于大型语言模型(LLMs)的聊天机器人在各个领域的进化和部署,总结了基础聊天机器人发展、LLMs 演进,并提供了当前正在使用和开发中的基于 LLMs 的聊天机器人概述。我们将 AI 聊天机器人视为生成新知识的工具,探讨了它们在各个行业中的多样应用。然后,我们讨论了一些挑战,包括训练 LLMs 使用的数据和生成知识的滥用可能引发的问题。最后,我们展望未来,探索如何提升它们在众多应用中的效率和可靠性。通过介绍 LLMs-based 聊天机器人的关键里程碑和当今背景,我们的调查邀请读者深入研究这一领域,并思考它们的下一代将如何重塑对话型人工智能。
Jun, 2024
本研究论文重点探讨了聊天机器人技术环境的历史、困难和前景,并提供了一种非常灵活的聊天机器人系统,利用强化学习策略改善用户互动和对话体验,使用情感分析和自然语言处理技术确定用户情绪,并探讨了聊天机器人技术发展的复杂性及其对各个领域的深远影响。
Oct, 2023