LLMs时代的人类中心研究路线:人工智能透明度
本文探讨了人类中心的大型语言模型评估,并提出了心理模型,用例使用价值和认知参与三个研究重点,旨在加速人类中心式大型语言模型评估的进展。
Mar, 2023
这篇文章着重探讨了大型语言模型对人类价值、劳动力市场的影响以及需不需要对它们进行监管等问题,同时,它们也能更好地人性化技术,并且可以克服当前技术所面临的瓶颈问题。因此,我们应该更广泛地了解和推广LLMs以及简化LLMs使用的工具和方法。
May, 2023
本研究对语言模型(LLMs)的理解能力进行了比较和对照,发现人类分析师和LLMs的分类和推理能力存在显著差异,但二者合作可能会产生协同效应,从而丰富了定性研究。
Jun, 2023
该研究通过CoAGent这款基于LLM的工具,与23位公共图书馆领域专家合作进行三阶段的参与式设计过程,揭示了整合人工智能到人类工作流程中的基本挑战,并提出了可行的“与人工智能共同创造服务的启示”,强调人工智能和人类之间共享的责任,为AI在参与式设计模型中的应用开辟了新途径,为服务环境中的人工智能与人类相互协作创作的产生奠定了基础。
Oct, 2023
基于大型语言模型的系统,在用户隐私方面存在问题,需要更多关注人类隐私问题的研究,包括设计范例对用户的行为披露、用户心智模型和隐私控制偏好的影响,以及赋予终端用户对个人数据的拥有权的工具设计,在此基础上构建可用、高效、具有隐私友好性质的系统。本文旨在启动关于人类隐私问题研究的讨论,为基于大型语言模型的系统中的隐私问题制定议程。
Feb, 2024
通过文献综述和第一手实验,本文研究了大型语言模型(LLMs)的潜力。尽管LLMs具有成本效益和高效性等优点,但也存在着诸如提示调优、偏见和主观性等挑战。该研究通过利用LLMs进行定性分析的实验提供了新的见解,强调了成功和限制。此外,本文还讨论了缓解挑战的策略,如优化提示技术和利用人类专业知识。我们的工作旨在将LLMs有机地融入人机交互数据工作,并积极促进其负责任的应用,以此回应关于LLMs在研究中负责任应用的持续对话。
Apr, 2024
在精密型行业中,通过对大型语言模型的调查,本文详细探讨了这些模型的方法、应用、挑战和未来机遇,并强调了大型语言模型在医疗保健、金融和法律领域中提高诊断和治疗方法、创新金融分析和完善法律解释和遵从策略方面的重要作用。此外,我们还对这些领域中大型语言模型应用的伦理问题进行了批判性检查,并指出了现有的伦理关切和尊重监管规范的透明、公正和强大的人工智能系统的需求。通过对当前文献和实际应用的全面综述,我们展示了大型语言模型的变革性影响,并勾勒了跨学科合作、方法论进步和伦理警觉的必要性。通过这种视角,我们旨在引发对话,激励未来致力于最大化大型语言模型的利益并降低其在这些精密型行业中的风险的研究。为了促进对这一主题中大型语言模型的未来研究,我们还提供了一个阅读列表,跟踪该主题下的最新进展,链接如下:https://github.com/czyssrs/LLM_X_papers。
May, 2024
本研究探讨了人工智能领域中大型语言模型(LLMs)的伦理问题。它讨论了LLMs和其他人工智能系统所面临的常见伦理挑战,如隐私和公平,以及LLMs特有的伦理挑战,如幻觉、可验证的问责和解码审查复杂性。该研究强调了解决这些复杂性的必要性,以确保问责制、减少偏见并增强LLMs在塑造信息传播方面所扮演的重要角色的透明度。它提出了缓解策略和LLM伦理的未来发展方向,主张跨学科合作。该研究建议针对特定领域制定伦理框架,并根据不同环境调整动态审计系统。这一路线图旨在引导负责任地开发和整合LLMs,设想一个以伦理考虑为基础的人工智能进步的未来社会。
May, 2024
本研究解决了用户在使用大型语言模型时可能造成的透明度缺失问题。通过混合方法的探索性调查和控制实验,发现用户的秘密使用行为主要受特定任务的影响,且影响用户意图的关键是外部评判感知。本研究为未来促进更透明的AI技术使用提供了重要的设计干预见解。
Sep, 2024