图表转文本:基于 Transformer 模型的自然语言描述生成
本研究的 Chart-to-text 数据集为基础,使用图像字幕和数据转换技术探索了从图表到文本的自然语言概括方法以及相应的神经网络模型,研究结果表明此方法对复杂模式和趋势的描述存在困难。
Mar, 2022
数据可视化是呈现数据和挖掘其有价值洞见的关键手段。通过自然语言处理技术,图表总结任务促进了对图表的深入数据分析。本研究构建了一个大规模的全面图表 - 标题数据集,提供了每个图表的微调指导,以解决现有方法在视觉 - 语言匹配和推理能力方面存在的明显不足。基于这个数据集的广泛覆盖范围,可以实现更好的训练数据视角匹配度。此外,我们提出了一种创新的图表总结方法 ChartThinker,它基于思维链和上下文检索策略合成了深层分析,旨在提高生成摘要的逻辑连贯性和准确性。在精心策划的数据集基础上,我们训练的模型在图表总结任务中始终表现出优越性能,在 7 个评估指标上超过了 8 种最先进的模型。我们的数据集和代码可公开访问。
Mar, 2024
利用自然语言的图表图像编辑解决方案 ChartReformer 可编辑图像的外观,消除了对原始数据和信息的需求,从而实现了更精确的编辑。
Mar, 2024
使用大型语言模型进行自然语言到可视化的转换任务,在分析如何将结构化表格数据转化为 LLM 所需的顺序文本提示时,发现将结构化表格数据转化为程序是有效的,并且在制定提示时考虑表格模式是必要的。同时,通过对比实验发现,LLM 在 NL2Vis 任务中优于基线方法,并且推理模型在提供少量示范的情况下通过上下文学习能够进一步改善性能,时而甚至超过微调模型。最后,分析 LLM 在 NL2Vis 任务中失败的情况,并提出了循环更新的策略,通过链式思维、角色扮演和代码解释等方法来迭代更新结果,实验证实了这种迭代更新的有效性,具有广阔的未来研究潜力。
Apr, 2024
我们提出了一种新颖的视觉分析框架,用于支持基于 transformer 的生成网络的分析,通过交互式可视化提供直观的模型概览,并通过三个详细案例研究展示了其可行性和实用性。
Nov, 2023
我们探索了使用大型语言模型(如 BERT)作为编码器,基于序列到序列变压器的机器学习模型架构,从自然语言查询中预测可视化命令,并应用可用的 T5 序列到序列模型进行比较。
Oct, 2023
图表概括对于盲人和视障人士来说是一项至关重要的任务,因为它是他们获取和解释图形数据的主要手段。本研究提出了三个关键贡献:引入了 AltChart 数据集,提出了一个新的预训练视觉语言模型的方法,以及对四种主流图表概括模型进行了全面评估。
May, 2024
本研究通过对大型视觉语言模型(LVLMs)的全面评估,揭示了它们在图表理解和推理任务中的优势和局限性,并提供了未来研究的启示。
Jun, 2024
本文介绍了 ChartSumm 数据集,它是一个大规模的基准数据集,由 84,363 个图表及其元数据和描述组成,涵盖了各种主题和图表类型。该数据集可用于生成短和长的摘要,用以提供给视障人士以及为其他数据驱动模型的训练提供基础。通过使用 ChartSumm 数据集进行大量实验,发现仍有调查的空间,如资料遗漏,产生幻觉,以及对图表中复杂趋势的不恰当解释。作者研究了扩展 ChartSumm 数据集以适用于其他语言的潜力,这使我们的数据集成为未来研究的有挑战性的基准。
Apr, 2023
ChartSpark 是一个新型系统,它基于文本到图像生成模型将语义内容嵌入图表中,以此生成有关文本输入和嵌入式数据信息的图片可视化图表,并设计了一个交互式可视化界面,它包括文本分析器、编辑模块和评估模块,用户可以使用该界面生成、修改和评估图片可视化图表。
Apr, 2023