通过细致的改写促进礼貌沟通
本文通过在英语材料的专家评估集上进行零 - shot 提示,进行了人类和语言模型在七个语用现象上的精细比较,发现最大的模型可以实现高精度和匹配人类错误模式,同时发现证据表明模型和人类对相似的语言提示敏感,旨在探讨人类语用处理机制和语言模型之间的关系。
Dec, 2022
本文提出了一种识别礼貌语言方面的计算框架,使用新的语料库对礼貌的不同方面进行评估,发现礼貌标记符与上下文之间的新互动,然后构建了一个具有领域无关词汇和句法特征的分类器,并通过对维基百科和 Stack Exchange 上的数据进行实验,研究了礼貌与社会权力之间的关系,并对性别和社区的反应进行了初步分析。
Jun, 2013
人们通过上下文来丰富文字表达,实现简洁而有效的沟通,为了让人工智能系统能够与人类进行自然交互,需要强调语用学技能,从分享语言目标和约定到视觉和肢体世界中的语境等,利用各种上下文信息有效地运用语言。本文调查现有的语境实现和语用模型方法,并分析了每个工作中的任务目标、环境语境和沟通便利之间的关系,从而丰富了语言含义。我们提出了关于未来基于任务设计的语境需求,以自然地引出语用现象的建议,并建议在更广泛的沟通语境和便利方面继续探索。
Nov, 2022
本文研究通过开发将人类自然语言自动翻译为机器可理解语言的能力,从而增强人机交流效率,重点是如何利用传统方法训练有限的数据集训练语义解析器,在海事领域的实验结果表明被翻译成 SQL 格式的语句和逻辑方面的形式是一种有用的训练数据集。
Mar, 2022
利用释义学习问题表达的多样性来提高询问回答系统在 Freebase 和句子选择上的准确性。通过训练端到端来直接学习最有可能产生正确答案的语言表达,得到了有竞争力的结果。
Aug, 2017
本文提出了一种新的礼貌转化任务,旨在将非礼貌语句转化为礼貌性语句并维持原意。我们提供了一个包含 1.39 多个自动标记有礼貌度的数据集,以鼓励对这一新任务进行基准评估。我们设计了一个标记生成管道,识别出风格属性,然后生成目标风格的句子,同时保留了源内容的大部分信息。对于礼貌性以及其他五个转移任务,我们的模型在内容保留的自动度量标准上优于现有技术,同时在风格转换准确性方面具有可比或更好的表现。此外,我们的模型在语法正确性、意义保留和转移准确性的人类评估方面优于现有方法的六个风格转移任务的所有。数据和代码位于此 https URL。
Apr, 2020
本研究介绍了一种新的 fine-grained 情感改写任务,该任务能够通过平滑变化情感维度,保留原始文本的含义,从而改变带有情感的文本的情感强度。研究者提出了一种情感和情感指导的改写框架,该框架依靠预先训练的语言模型进行文本生成。经过广泛的评估,研究者发现,包含细粒度情感标签的改写任务可以显著提高获得反映期望情感的高质量改写的可能性,同时在改写评估指标(如 BLEU,ROUGE 和 METEOR)方面获得了一致性更好的得分。
Jun, 2023
提出一种新的基于感情梯度的细粒度情感改写任务,通过 fine-tuning 文本到文本的转换器进行多任务训练,对输入和目标文本进行细粒度情感标注,评估结果表明,将情感标签纳入改写任务可以显著提高获取所期望情感的高质量改写的几率,并在多个改写指标上达到更好的成绩。
Oct, 2022
通过评估释义生成方法实现提高 FRANK 问答系统可回答的自然语言问题的多样性,该研究分析了 LC-QuAD 2.0 数据集上的自动度量和人工判断,并讨论了它们之间的相关性,同时对包含错误的数据点进行了错误分析。通过将最佳执行的释义生成方法(一种英 - 法反向翻译)模拟到 FRANK 中进行测试,作者得出两个主要结论:需要清理 LC-QuAD 2.0 数据以消除评估中的错误,而且由于 FRANK 的解析器存在限制,释义生成不是我们可以依赖的一种提高 FRANK 回答自然语言问题多样性的方法。
Jun, 2022
介绍了 PoliteRewrite 数据集,其中包括 10K 个人工标注和 GPT-3.5 协作标注的礼貌语言改写句子和 100K 个 GPT-3.5 自动生成的高质量礼貌句子改写,旨在为更具挑战性的句子改写研究做出贡献,并提出资源注释范式方面与预训练模型的协作思路。
Dec, 2022