源信息披露对 AI 生成的信息评估的影响:一项双部分研究
大型语言模型产生的输出对人类思想有什么影响?通过一项实验,我们发现高度暴露于人工智能生成的创意并不会直接影响个体的创造力,但会增加集体创意多样性的数量和变化速度。我们的发现表明,引入人工智能创意可能会增加集体多样性,但对个体的创造力没有显著影响。
Jan, 2024
通过调查 26 名参与者对 18 条预先标注的短信的感知,我们发现没有统计学显著的证据表明使用人工智能改变了收件人的感知,这为基于大型语言模型的短信撰写辅助提供了希望性的证据。
Jan, 2024
通过分析大学教师对人工智能语言模型的经验和态度,本研究填补了文献中对人工智能在教育中的应用以及其对教学和学习的潜在影响的研究空白。该研究调查了高等教育中语言模型和生成式人工智能工具的意识水平、整体态度以及影响这些态度的因素。研究结果显示,教育工作者对这些工具的认识程度逐渐增加,总体上持积极态度。教学风格与对生成式人工智能的态度之间没有相关性。最后,相较于其他领域的教育工作者,计算机科学教育工作者对生成式人工智能工具在技术上的理解更有信心,对其持更加积极的态度,但在检测人工智能生成作品的能力上并不更有信心。
Mar, 2024
研究表明,不管用户界面版本如何,参与者倾向于将人类作者和由大型语言模型生成的内容归于相似的可信度水平。他们对于人工智能生成的内容并不认为其能力和可靠性有所不同,但评价人工智能生成的内容更加清晰和吸引人。本研究的发现呼吁在评估信息来源时更加谨慎,并鼓励用户在接触由人工智能系统生成的内容时保持警惕和批判性思维。
Sep, 2023
本文研究探讨了生成 AI 技术中,AI 加入真实数据之后可能会产生回馈循环并导致未来模型的降级和多样性降低的情况,从而产生社会影响。同时,对于如何缓解这种回馈循环以及降低未来技术模型降级的影响也提出了相关问题。
Jun, 2023
通过引入贝叶斯框架,研究了与生成人工智能合作时可能出现的一种情况:用户可能会获得生产力的提高,但人工智能生成的内容可能无法完全符合他们的偏好。我们揭示了个体决策与人工智能训练之间的相互作用可能导致社会性挑战,输出结果可能变得更加同质化,特别是当人工智能基于人工智能生成的内容进行训练时。解决同质化和偏见问题的方法是改进人工智能与人类的交互,实现个性化输出而不损失生产力。
Sep, 2023
通过将 ChatGPT 暴露在具有争议性的问题上,我们旨在了解其意识水平,以及现有模型是否存在社会政治和 / 或经济偏见。同时,我们还旨在探讨人工智能生成的答案与人类答案的对比情况。通过使用社交媒体平台 Kialo 创建的数据集来进行探索。我们的研究结果表明,尽管 ChatGPT 的以前版本在争议性话题上存在重要问题,但最近的版本 (gpt-3.5-turbo) 在多个知识领域中不再表现出明显的显性偏见,特别是在经济方面进行了很好的调节。然而,它仍然保持着一定程度的对右倾意识形态的隐性倾向,这表明需要从社会政治的观点增加更多的调节。在争议话题的领域知识方面,除了 “哲学” 类别外,ChatGPT 在跟上人类集体知识水平方面表现良好。最后,我们发现与人类答案相比,Bing AI 的信息来源在倾向中立方面略有增加。我们的所有分析都具有普遍适用于其他类型的偏见和领域。
Aug, 2023
评估了公开和秘密 AICT 的自我和他人使用的可接受性和使用情况感知,发现隐蔽使用比公开使用被认为不太可接受,人们倾向于高估他人对 AICT 的使用,并期望他人不负责任地使用 AICT,担忧对通过 AICT 进行沟通的悲观看法的自我实现和不同期望。
May, 2023
调查了生成型人工智能在学术阅读中的学习效果,结果发现完全依赖人工智能的写作任务会导致准确性降低 25.1%,然而,人工智能辅助阅读会导致准确性下降 12%,而使用人工智能进行摘要编写则可以显著提高质量和输出。
Sep, 2023