从文本流中组装基于演员的思维导图
本文介绍了一种高效的自动制图方法。该方法使用序列图生成技术将一篇文档转换成关系图,并通过强化学习调整图形来获得更有意义的思维导图,实验结果表明该方法比现有方法更加有效和高效。
Sep, 2021
该研究提出了一种名为 Chat2Brain 的方法,将大型语言模型与基本的文本 - 图像模型 Text2Brain 相结合,以在数据稀缺和复杂查询环境中将开放式语义查询映射到脑激活图,从而改善元分析的挑战。我们证明 Chat2Brain 能够合成更复杂的文本查询任务的解剖学上合理的神经激活模式。
Sep, 2023
使用大型语言模型(LLMs)生成文本的结构化表示,通过提出有效的提示策略来解决当前模型在生成结构化输出方面的困难,并且通过使用表格和思维导图作为代表模态进行实证评估,结果表明与纯文本相比,使用表格和思维导图可以显著减少阅读理解时间而不会导致准确性降低。
Jan, 2024
通过直接比较从脑活动中映射的预测文本嵌入与实际文本重建,我们的方法在文本重建方面明显胜过当前最先进模型,实验证明更精确地将脑活动映射到文本嵌入将获得更好的重建结果,这为未来的工作简化了从脑活动中重建语言的任务,强调了改进脑到文本嵌入映射技术的重要性。
Mar, 2024
本文提出了一种计算模型,通过分析角色猜测的心理状态和句法和语义层面的语言信息,自动检测叙述结构的主要元素。通过使用预先训练的社交常识知识模型获取主角的心理状态信息,并使用多功能融合方法将其与语境语义嵌入相结合,我们建立了一个包含手动注释的 STORIES 数据集的计算模型来实现这一任务,并在评估中发现我们的模型能够实现极显著的改进来识别高潮和结局。
Feb, 2023
本文讨论如何更好地将文本转化为对应的图像序列,包括利用 Transformers、constituency parse trees、commonsense 信息以及 visuo-spatial 信息,最终提高了生成图像的质量和一致性。
Oct, 2021
我们提出了一种基于句法树的语法引导生成模式,通过解码过程的两个部分:(1)对给定源句子中词汇化的句法上下文中的每个成分预测填充文本;(2)映射和扩展每个成分以构建下一级语法上下文以生成自然语言文本,并在重述生成和机器翻译上进行了实验。与自回归基线相比,该方法在有效性和可解释性方面更加出色。
Jun, 2023
该论文采用基于 LSTM 的组合模型将自然语言文本映射到知识库中,提出了一种动态消歧机制以处理多义词问题,并演示了该方法在大规模文本到实体映射和实体分类任务中取得了最先进的结果。
Aug, 2018