LLM2Loss: 利用语言模型进行可解释性模型诊断
这篇论文提出了一种通过专家混合知识增强机制来改善多模态大型语言模型 (MLLMs) 的视觉感知能力的方法,并通过集成视觉专家实现了视觉输入的更全面准确的概括,进一步提升了 MLLMs 的视觉感知能力。
Jan, 2024
使用 Large Multimodal Models 中的 MiniGPT-4 模型,结合图像编码器和文本编码器提取语义描述,以提高图像分类任务的性能。
Jun, 2024
该论文介绍了一种利用大型语言模型(LLM)进行文本监督语义分割的新方法,该方法通过生成更准确的类别表示来提供多样化的分割结果,并通过合并不同的子类描述符的分割图确保对测试图像的更全面的表示。经过三个标准基准的全面实验,我们的方法比传统的文本监督语义分割方法表现出更好的性能。
Mar, 2024
当解答复杂问题时,大型语言模型(LLMs)作为数字助手成为重要工具,然而我们的研究揭示了这种方法中隐藏的风险,称之为 “对抗性有益性”,即 LLMs 的解释使错误答案看起来正确,潜在地导致人们相信错误的解决方案。本文通过识别和研究 LLMs 采用的关键说服策略,揭示出 LLMs 在这方面存在的问题,并通过基于图形导航的特殊任务,验证了 LLMs 生成对抗性有益性解释时导航复杂结构化知识的能力。这些发现明确了黑盒解释设置的局限性,并提供了如何安全使用 LLMs 作为解释器的建议。
May, 2024
通过结合医学领域知识,采用多层结构的提示方法实现零 / 少样本上下文学习,并探索用户与大型语言模型的两种交流方式对诊断准确性和风险因素的影响。结果表明,大型语言模型通过域知识和定制化沟通策略能够显著提高诊断流程的准确性。研究还强调了在大型语言模型应用中优化训练样本数量和交流方式以提高准确性并减少偏见的重要性。
May, 2024
通过采用分层推理方法,大型语言模型(LLMs)能够提供综合的模型级摘要,自动化数据科学中的常见任务,如检测与先前知识不符的异常情况,描述异常情况的潜在原因,并建议消除异常情况的修复方法。以医疗保健领域的多个例子为例,演示了 LLMs 的这些新功能的实用性,特别强调广义加性模型(GAMs)。最后,介绍了开源 LLM-GAM 界面工具包 TalkToEBM。
Aug, 2023
本研究通过对临床数据库中的文本描述进行测试,评估了最新的大型语言模型在癫痫诊断中结合内部知识和推理的能力,并提供了首个对当前 SOTA 大型语言模型在癫痫医学领域的综合评估结果,强调了它们利用患者病史中的非结构化文本辅助诊断过程的能力。
Jul, 2024
我们提出了一种简单但有效的方法来将任务上下文化为特定的大语言模型,通过观察给定的大语言模型如何描述目标数据集,聚合大语言模型的开放式推理结果,并最终将聚合的元信息纳入实际任务中,我们展示了这种方法在文本聚类任务中的有效性,并通过上述过程的示例突出了上下文化的重要性。
Jun, 2024
本研究提出使用大型语言模型来进行零样本特征提取并为医学性风险预测模型提供高层次的自然语言特征选取方法,通过自动化特征提取,不需要手动从原始电子病历中提取特征,提供与参考特征相媲美的性能,同时提高了模型的可解释性。
Feb, 2023