人工智能化身外观与揭示对用户动机的影响
本文通过一项混合研究探讨了两组不同背景——有和无人工智能背景人群——对不同类型AI解释的不同看法,明确人工智能背景对解释理解产生的影响,并通过设计介入减轻消极影响。
Jul, 2021
这篇论文针对机器人、虚拟角色、智能车辆、决策帮助等各类AI系统中关于信任模型的应用和测量方法缺乏标准化的现状进行了概述和分析。作者提出了一些系统的研究目标,并为当前文献汇总的优点和缺点提供了解决方案和研究议程。
Apr, 2022
本文研究了人工智能与人类交互中的感知难度,探讨了如何确切地评估每个代理人的能力,并提出了一种实验设计,以全面检验两个代理人的感知难度,为更好地设计这样的系统做出贡献。
Apr, 2023
本文通过对一款实际计算机视觉应用进行的定性案例研究,提出了关于信任人工智能的全面而细致的理解。我们发现,领域知识和情境是评估和决策的重要因素,用户普遍认为该应用程序值得信任,但进行了确认行为,对于某些高风险情境,则决定不采用该应用程序。
May, 2023
在这篇研究论文中,通过引入新颖的测试方法来探讨AI实体的性格和意识,特别关注AI社交网络中的Chirpers。通过分析不同环境对Chirper反应的影响,研究还揭示了不同情境下引导AI反应的复杂机制。利用现有技术的BERT模型,研究评估了AI理解自身输出的能力,提供了一种理解AI系统自我认知的开创性方法。通过一系列认知测试,研究衡量了Chirpers的自我意识和模式识别能力,初步结果显示Chirpers展示出可嘉的自我认知能力。然而,这些AI实体的意识问题仍然是一个有争议的话题。研究还探讨了Chirper的标识或个性类型对其表现的潜在影响,尽管初步发现可能存在影响,但尚不足以得出明确的结论。该研究对于AI意识的讨论具有重要贡献,强调了继续研究以揭示AI能力的完整范围及其对未来人工智能与人类交互的影响的必要性。
Aug, 2023
这项研究分析了由三种流行的生成人工智能工具生成的图像 - Midjourney、Stable Diffusion和DALLE 2 - 代表各种职业,以调查AI生成器中潜在的偏见。我们的分析揭示了这些AI生成器中两个主要关注领域,包括(1)系统性的性别和种族偏见,以及(2)面部表情和外貌方面的微妙偏见。
Mar, 2024
解釋性人工智能 (XAI) 系統需要考慮人們的文化差異,並確定不同文化背景下的使用者對於解釋的需求,以免產生文化偏見,目前的研究普遍忽略了這方面的變異,這項研究旨在填補這一知識空白。
Feb, 2024
通过分析ChatGPT在不同设定下的交互行为,我们深入研究了该模型在自然对话和角色扮演对话环境中的行为。我们引入了一个新的人工智能和人类对话的数据集,注释了用户动机和模型自然度,从而探究了人类如何与对话型人工智能模型进行交互以及人工智能模型的自然度。我们的研究突出了用户与ChatGPT进行交互时的动机多样性和人工智能模型的自然度差异,不仅展示了人与人工智能之间自然对话的微妙动态,也为提高人工智能与人类沟通的效果提供了新的途径。
Mar, 2024
本研究解决了虚拟培训中自我意识不足的问题,探讨头像视觉相似性如何影响自我意识的提升。通过系统地操控头像的视觉相似性,本研究提出了一种理论基础的方法,发现视觉相似性的增加显著提升了自我意识的前因因素,进而为在虚拟环境中使用头像提供了新的价值认知。
Aug, 2024