论聊天 GPT 的性能期望、工作负荷、风险和满意度对信任的影响:横断面调查分析
研究表明,不管用户界面版本如何,参与者倾向于将人类作者和由大型语言模型生成的内容归于相似的可信度水平。他们对于人工智能生成的内容并不认为其能力和可靠性有所不同,但评价人工智能生成的内容更加清晰和吸引人。本研究的发现呼吁在评估信息来源时更加谨慎,并鼓励用户在接触由人工智能系统生成的内容时保持警惕和批判性思维。
Sep, 2023
本篇论文对 ChatGPT 进行了可靠性的大规模实验,在 8 个领域的 5,695 个问题数据集中发现 ChatGPT 的性能变化较大,尤其在法律和科学方面表现不佳,还指出了 ChatGPT 的系统角色和对抗性样例都会影响它的可靠性,这是加强大型语言模型可靠性和安全性的必要性。
Apr, 2023
本文研究了自然语言生成工具,如生成人类对话文本的聊天机器人,其可信度和伦理影响的问题,讨论了不同用户对这些工具的感知和采用方式以及机器生成文本质量的感知优缺点,还分析了参与者确定的这些工具的优点和伦理风险,并探讨了这些发现对于提升 AI 开发过程的潜在影响。
May, 2023
研究通过部分最小二乘结构方程模型(PLS-SEM)调查了学生对教育中聊天机器人采纳的决定因素,考虑了技术准备指数(TRI)和技术接受模型(TAM),结果表明乐观和创新与感知易用性和感知有用性呈正相关,而不适和不安全对感知易用性有负面影响,只有不安全对感知有用性有负面影响。这些发现为未来的技术设计者提供了洞察力,阐明了影响教育环境中聊天机器人采纳和利用的关键用户行为因素。
Nov, 2023
本研究探讨了 ChatGPT 对人机协作任务中人的信任的影响,通过设计了一个机器人控制系统 RoboGPT,使用 ChatGPT 来控制七个自由度机械臂,帮助人类操作员完成工具的获取和放置,并使用自然语言与人类交互,结果表明 ChatGPT 能够显著提高人机协作中的信任度,建立更自然和直观的人机交互。
Apr, 2023
基于文本的聊天机器人在电子商务中带来了前所未有的商业潜力。本研究旨在探索消费者对文本聊天机器人的信任和反应,涉及任务复杂性和聊天机器人身份披露的调节效应。通过 299 个有效反应的调查方法进行了此研究。本研究采用普通最小二乘回归来测试假设。通过刺激 - 有机体 - 反应框架,本研究对消费者对文本聊天机器人的知觉和反应提供了重要的洞见。这项研究的发现也提出了增加消费者对文本聊天机器人积极反应的建议。
Jan, 2024
ChatGPT 是一种自然语言处理工具,正在革命工程教育和技术与学生、教职员工之间的关系,对此进行了问卷调查,以测量 ChatGPT 对学生、教职员工的影响,并将该调查作为技术报告与其他大学和实体分享。
Apr, 2023
通过对捷克民众自我评估数据的分析,本研究探讨了一个通用聊天机器人 ChatGPT 在从短文本中有效推测个性特质方面的能力,结果显示其在人格特质推测方面与人类评估者具有竞争力,并揭示了 ChatGPT 在所有人格维度上存在的 ' 积极偏差 ',同时探讨了提示内容对其准确度的影响,从而对人格评估中人工智能的潜力和局限性进行了重要贡献。本研究强调了负责任的人工智能发展的重要性,并考虑了隐私、同意、自主权和人工智能应用中的偏见等伦理问题。
Dec, 2023
我们在这篇论文中调查了 ChatGPT 在七个自然语言处理任务领域的真实性能水平,回顾了 ChatGPT 的社会影响和安全问题,并强调了其评估中的关键挑战和机遇。我们希望我们的调查能够揭示 ChatGPT 的黑盒特性,以免研究人员被其表面生成所误导。
Apr, 2024
本文探讨了 ChatGPT 在不同任务中的表现评估问题,特别是针对数据污染问题,以 stance detection 为例,同时讨论了如何在当前大型、连续训练语言模型的时代保证公平的模型评估。
Mar, 2023