介绍了基于大规模数据集 Positive Psychology Frames 的积极转化任务,任务目的是中和消极文本并生成更积极的视角,以保留文本原意。研究评估了一系列现有的文本风格转换模型,并讨论了未来工作的关键问题和方向。
Apr, 2022
本文研究如何通过神经文本生成技术在保持上下文一致性的同时对新闻文章中的句子进行重新构架,我们提出了三种策略以引导训练,包括框架语言预训练、命名实体保留和对抗训练,并通过自动和手工创作的方式进行主题一致性、连贯性和成功的重新构架方面的评估。我们的结果表明,生成适当框架的文本的效果良好,但存在一些权衡。
Sep, 2021
该论文研究了语言模型如何帮助人们重新构建消极的想法,通过开发自动化指标来度量语言属性并训练一个提高检索上下文学习模型的数据集,并确认高度共情或特定于个体患者的重构更受人们青睐,这些发现对于使用语言模型协助人们克服消极思维具有重要意义。
May, 2023
介绍了一种基于主题建模和深度学习的系统,用于分析和分类文本文档中的框架,该系统提供了预训练的框架分类模型以及适用于用户提供的语料库的新型分类模型的易于使用的流水线,旨在使研究人员能够获得文档的框架
Aug, 2020
通过从心理学、传播学和语言学的研究中汲取经验,我们提出了一种自动转述异议回应以传达接纳态度同时保持意义的方法,通过对 Reddit 评论和回应的数据集进行每种方法的自动转述,经过以人为中心的实验,我们发现我们的框架生成的回复被认为比原始回复以及通用接纳度基线更具接纳度,分析并讨论结果的含义,并强调对内容管理的应用,总体而言,我们说明了如何将接纳度这一特定的社会科学构造转化为计算框架,从而使 LLM 生成更符合人类感知。
May, 2024
本文探讨现有的语言模型是否可以产生大量的实践材料来帮助生成特定上下文中标准的无益思维模式,并提出积极的重新构建建议。通过使用一个包含大约 10k 个例子的新数据集来训练和 / 或评估当前模型,我们发现现有模型已经可以帮助生成丰富的定制实践材料和假设,无需或最少额外模型训练。
Jul, 2023
本文定义了一个新的风格转移任务:视角转换,展示了如何利用该任务提高对话纵观述和新闻摘要模型的性能。
Oct, 2022
该论文提出了一种用于重新框架论点的方法,该方法结合了可控文本生成和模糊匹配技术,以实现通过纯文本改善论点效果的目的。
Mar, 2021
通过大规模的调整语言模型,提出了一种建模差异语境的框架,该框架能够捕捉传统媒体和社交媒体上政治性偏见问题的高度可靠性。
Feb, 2023
本文提出一种新颖的视觉编码器,以在 Change Captioning 任务中明确区分视点变化和语义变化,并进一步模拟人类的注意力偏好,通过一种新的强化学习过程直接微调注意力。实验结果表明,该方法在 Spot-the-Diff 和 CLEVR-Change 数据集中的表现优于现有方法。
Sep, 2020