提出自动化框架 BiasAsker,通过构建包含 841 个社会群体和 8110 个有偏见属性的、综合性的社会偏见数据集,使用存在性测量的新方法,识别并衡量对话 AI 系统中的绝对偏见和相关偏见,对 8 个商业系统和 ChatGPT、GPT-3 等两个著名的研究模型进行广泛实验,结果表明,BiasAsker 生成的 32.83%的问题可以触发这些广泛部署的对话系统中的有偏见行为。
May, 2023
研究通过行为和交流的角度,探讨了人机互动中性别偏见的影响,特别关注用户与对话代理的互动中的感知和语言风格,以及对话代理的性别设计如何加强和延伸性别偏见,并就对话代理的性别分配的适宜性和促进设计中性别平等提出伦理设计建议。
Jan, 2024
本文主张人工智能系统需要模拟、理解、甚至复制人类的认知偏差,在人机协作中扮演更加重要的角色,并提出了关于人类认知偏差和人工智能之间相互作用的研究议程及三个感兴趣的广泛领域,并为具有更好对人类偏见的人工智能系统的设计方向提出了研究方向。
Oct, 2022
通过引入认知启发式方法,通过计算语义和情节记忆、情绪、工作记忆和学习能力来解决对话代理人的技术和社交问题。
Nov, 2023
人工智能对话系统领域的研究趋势是基于认知心理学理论,将认知策略融入会话中,以达到有效说服他人,建立智能的对话代理系统。本文首先介绍了认知心理学理论和三种典型认知策略的定义。然后,提出了一种新的系统架构,详细研究了代表性工作,并总结了权威基准和评估指标。最后,对 CogAgent 的未来发展方向和存在的问题进行了观察与总结。
Feb, 2024
研究调查了 745 名受访者,旨在了解不同应用中关于情感技能的期望和偏好。结果表明,在设计情感智能对话代理时,应根据应用的上下文和性质考虑适应性和情境感知。
Oct, 2023
本文提出了一种全面的评估策略,与人类判断相关的几个指标是构建无目标对话系统的关键,此方法可促进对话型 AI 的自动化评估过程。
Jan, 2018
利用认知科学的知识建立数学模型并提供了一个普遍的框架,用于理解认知偏差和人工智能精度之间的相互作用,特别是锚定偏差,通过一项有效的时间分配策略,成功提高了人工智能的协作性能。
Oct, 2020
本文研究了如何有效地评估对话系统的性能,发现人工评估是最好的方法,但人工评估方法的不同会导致不同的数量的人工注释和劳动成本,因此我们比较了五种不同的众包工人评估方法,发现不同的方法适用于不同类型的模型比较,建议在何时采用哪种方法,以及未来的研究方向。
Jan, 2022
本研究通过社会认知理论构建了一个特征框架,对代表人类意图、动机、自我效能和自我调节的 Agency 进行了量化和控制,并提供了一个新的数据集,评估当前对话系统中代理能力的发展和潜力。