视觉中可信大规模模型:调查
本文介绍了大语言模型(LLMs)在人工智能领域的应用。主要探讨了 LLMs 的安全性和可靠性问题,并对经典软件和深度学习模型如卷积神经网络的验证和验证技术进行了综述和扩展,以提供对 LLMs 及其应用程序的安全性和可靠性的严格分析。
May, 2023
近期,大型语言模型(LLMs)与计算机视觉(CV)的交叉领域成为人工智能(AI)领域重要的研究领域,驱动了重大的进展。该综述论文探讨了变压器及其后继者在转换器和大型语言模型中的最新进展,强调了其对视觉变压器和 LLMs 的革命潜力。同时通过对多个领先的付费和开源 LLMs 的性能指标的对比分析,揭示了它们的优势和改进空间,并回顾了 LLMs 如何用于解决视觉相关任务的文献综述。此外,该综述还提供了用于训练 LLMs 的全面数据集合,并为 LLMs 的预训练和下游任务的高性能实现提供了洞见。综述通过强调 LLMs 在 CV 上的深刻交叉,指出了集成和先进 AI 模型的新时代的潜在研究和发展方向。
Nov, 2023
为了确保大型语言模型在实际应用中与人类意图保持一致,本研究介绍了对 LLM 值得信赖性进行评估时需要考虑的关键维度,包括对 LLM 的可靠性、安全性、公平性、抵抗滥用性、可解释性和推理性、遵守社会规范以及鲁棒性进行调查研究。通过对几个广泛使用的 LLM 进行测试,研究结果表明,总体上,更加符合人类意图的模型在整体可信度方面表现更好,但是模型对不同可信度类别的影响程度有所不同,这凸显了在 LLM 对齐方面进行更加细致的分析、测试和不断改进的重要性。本研究旨在为该领域的从业人员提供有价值的见解和指导,理解和解决这些问题对于在各种应用中实现可靠和符合伦理的 LLM 部署至关重要。
Aug, 2023
介绍了 TrustLLM,这是一个关于 LLM(大型语言模型)信任度的综合研究,包括不同维度的信任度原则、建立的基准、评估和分析主流 LLM 的信任度,以及对开放挑战和未来方向的讨论。
Jan, 2024
综述了大语言模型与视觉语言模型的最新进展,分析了它们在视觉能力、多模态输入和基准数据集方面的优势和局限性,并提出未来研究的潜在方向。
Feb, 2024
在计算机视觉和自然语言处理领域,本研究重要不可或缺的工具是大型视觉 - 语言模型(LVLMs),它们能够根据视觉输入生成文本描述。然而,我们的调查发现生成的内容存在显著的偏见,主要受到底层大型语言模型(LLMs)的影响而非输入图像。为了纠正这些偏见并将模型的关注重点转向视觉信息,我们提出了两种简单且无需训练的策略。首先,对于分类或多项选择问题回答(QA)等任务,我们通过仿射变换提出了一个 “校准” 步骤来调整输出分布。这种 “事后去偏” 的方法确保了当图像不存在时每个答案都具有均匀的分数,作为一种有效的正则化技术以减轻 LLM 先验的影响。对于更复杂的开放式生成任务,我们将这种方法扩展为 “去偏抽样”,借鉴了对比解码方法的灵感。此外,我们的研究还揭示了 LVLMs 在不同解码配置下的不稳定性,通过对不同设置的系统性探索,我们显著提高了性能,超过了现有评估结果,并对公平性提出了关切。综合实验证明了我们提出的策略在减轻偏见方面的有效性。这些策略不仅有助于减少虚幻现象,还有助于生成更有用和准确的插图。
Mar, 2024
近年来,机器学习模型,特别是基于 Transformer 的预训练模型,对自然语言处理和计算机视觉领域产生了革命性的进展。然而,研究人员发现这些模型可能无意中捕捉和强化其训练数据集中存在的社会偏见,导致资源分配不平等和特定社会群体的不公平代表。解决这些偏见并确保人工智能系统的公平性已成为机器学习界关注的焦点。最近介绍的预训练视觉语言模型在新兴的多模态领域引起了人们对其中的社会偏见的关注。尽管视觉语言模型易受社会偏差影响,但对比自然语言处理和计算机视觉领域中广泛讨论的偏见而言,对此了解有限。本调查旨在向研究人员提供关于 NLP、CV 和 VL 领域中预训练模型社会偏见研究的高层次见解。通过检查这些观点,本调查旨在为单模态和多模态环境下如何应对和减轻社会偏见提供有价值的指导。本文所提供的结果和建议可使机器学习界受益,并促进在各种应用和研究努力中开发更加公平和无偏的人工智能模型。
Sep, 2023
在医疗保健领域,大型语言模型的采用存在对可信度、连贯性和幻觉等问题的犹豫。本文讨论了在医疗保健领域中实现可靠、可信赖和无偏倚模型的关键因素,并重点关注在医疗保健背景下幻觉的量化、验证和缓解。最后,我们讨论了大型语言模型在医疗保健中的未来。
Sep, 2023
通过调查大规模生成模型的可信度,本文构建了一张详尽的地图,涵盖了长期存在和迅速增长的与这些模型相关的威胁,包括隐私、安全、公平性和责任。同时提供实用建议和未来发展方向,以推动这些模型的可信赖部署,最终造福整个社会。
Jul, 2023