ENTRUST: 使用语言模型和蕴涵进行论据重构
本研究提出了一种名为 “社会偏见框架” 的新的概念形式化模型,以模拟人们如何将社会偏见和刻板印象投射到其他人身上的框架,并建立了一个名为 “社会偏见推理语料库” 的数据集来支持大规模建模和评估,分析表明当前最先进的神经模型虽然能够高效地对是否含有不良社会偏见进行分类,但在详细解释社会偏见框架方面并不有效。本研究为今后的研究工作提供了指导,即将结构化的语用推理与社会影响的通识推理相结合。
Nov, 2019
本文研究如何通过神经文本生成技术在保持上下文一致性的同时对新闻文章中的句子进行重新构架,我们提出了三种策略以引导训练,包括框架语言预训练、命名实体保留和对抗训练,并通过自动和手工创作的方式进行主题一致性、连贯性和成功的重新构架方面的评估。我们的结果表明,生成适当框架的文本的效果良好,但存在一些权衡。
Sep, 2021
提出了一个基于将文本转换为抽象意义表示(AMR)图的新型流水线,通过预训练的 AMR 解析器将 AMR 图转换为命题逻辑,并使用 SAT 求解器进行自动推理,引入了松弛方法以允许替换或遗忘某些命题。实验结果表明该流水线在四个 Recognizing Textual Entailment 数据集上表现良好。
May, 2024
该论文研究了语言模型如何帮助人们重新构建消极的想法,通过开发自动化指标来度量语言属性并训练一个提高检索上下文学习模型的数据集,并确认高度共情或特定于个体患者的重构更受人们青睐,这些发现对于使用语言模型协助人们克服消极思维具有重要意义。
May, 2023
通过众包实验和单词分布表示,本文介绍了表示形式 connotation frames,它可以组织单词中的 connotative 关系并分析线上新闻媒体中的潜在偏见。
Jun, 2015
介绍了基于大规模数据集 Positive Psychology Frames 的积极转化任务,任务目的是中和消极文本并生成更积极的视角,以保留文本原意。研究评估了一系列现有的文本风格转换模型,并讨论了未来工作的关键问题和方向。
Apr, 2022
本文通过对欧洲五个国家的 No-Vax 运动相关文章的标题进行人工标记及使用 GPT-3.5 的微调和提示工程来推断新闻标题的框架,以研究该主题。研究结果为新闻分类等任务的可行性和 GPT-3.5 模型是否能够复制人的感知能力做出贡献。
Apr, 2023
本研究探索了通过众包进行数据集创建的可能性,利用非专家注释员开发训练语料库,扩展了多语种的媒体框架分析并提供了孟加拉语和葡萄牙语的新基准数据集,展示出在众包数据集的基础上与其他现有数据集相结合,从而使基线提高 5.32 个百分点,并发现任务特定的精调是比使用更大的非专业模型更好的方法。
Apr, 2024
本文中,我们描述了几种针对不同社区的刻板印象,这些社区存在于受欢迎的句子表示模型(包括预训练的下个句子预测和对比句子表示模型)中。通过比较基于文本相似性的强预训练模型与学习语言逻辑的文本蕴涵模型,我们得出结论:与显式去偏见流程相比,使用文本蕴涵显式逻辑学习可以显著减少偏见并提高社区的识别。
Mar, 2023