测量可信度还是自动化相面相貌学?对 Safra、Chevallier、Grèzes 和 Baumard(2020)的评论
通过记录人们在面对不同人物时的脑电波活动并利用逻辑回归分类器建模,揭示了在判断信任和吸引力方面最活跃的大脑区域,以期为社会中乃至医学领域的偏见问题提供解决思路。
Jun, 2023
通过定量和定性研究,本文探讨了以个体人类特质为依据对机器人个性的重要性,并证明通过声音和语言特征可以准确地描绘机器人的外向性和内向性。此外,通过收集对不同机器人个性的喜好和信任评分,我们得出结论,无论被测试者个人特质如何,人们更喜欢和信任外向型机器人,对 Robo-Barista(机器咖啡师)而言,这一点尤其如此。同时,我们发现个体对机器人的态度和倾向对 Robo-Baristas 的信任有影响,因此在设计人机交互研究时,除了考虑机器人的个性、角色和交互环境外,个体态度也是重要的考虑因素。
Jul, 2023
使用生成模型找到脸部图像中感知属性的语义编辑,综合考虑保持身份和改变感知属性之间的权衡,以改变脸部图像中的任何输入脸沿属性轴的转换。通过预测模型和人类评分,在真实和合成脸上进行培训和评估,证明了我们方法的普适性,最终可用于理解和解释与身份无关的对面部主观解释中的偏见。
Sep, 2023
这篇论文针对机器人、虚拟角色、智能车辆、决策帮助等各类 AI 系统中关于信任模型的应用和测量方法缺乏标准化的现状进行了概述和分析。作者提出了一些系统的研究目标,并为当前文献汇总的优点和缺点提供了解决方案和研究议程。
Apr, 2022
该研究探讨了在自动评估人类行为任务过程中,人类对视频结构化面试的评分是否具有偏见,并且这些评分是否会影响使用它们作为训练数据的机器学习模型,研究结果初步表明此类标注中存在视觉上的偏差。
Nov, 2019
信任是人们对机器人和技术进行采纳的重要因素,因此研究过去几十年的文献主要关注于测量人们对机器人和技术的信任程度,特别是在人机交互方面。本文中,我们概述了当前的研究方法及其优势,提出了一些薄弱方面,并讨论了在人机交互中影响信任度的更全面因素的潜力。
Nov, 2023
这篇论文通过系统综述研究了人工智能系统中适当信任的建立、度量方式、使用的任务类型以及相关挑战,并提出了一种基于信仰、意图和行为的映射方法,总结了当前趋势、潜在差距和未来工作的研究机会,以推进我们对适当信任的复杂概念在人工智能交互中的理解。
Nov, 2023
这篇论文通过对多个经过验证和可靠的人机互动信任测量工具的元分析,提出了一个一致的人机互动信任模型,为今后的研究提供了一个综合框架,并确定了信任测量的边界和需进一步调查的领域。
Mar, 2023
通过建立 MATCH 模型,本文探讨了如何在人工智能系统中通过可信度提示进行信任建立,强调透明度和互动等技术的重要性,提出了技术设计者需要意识到用户认知过程和其潜在局限性以选择可靠的可信度提示,并定义适当的提示标准及开销,鼓励相关行业规范技术应用和预防恶意行为。
Apr, 2022
使用行为计量学作为辅助工具来客观评估面试者,本研究提出了一种测量面部表情的方法,利用开源计算机视觉算法和库来分析面部不对称性。
Oct, 2023