- ACL亚历山大的回声:用于多语种书籍摘要的大型资源
本文介绍了 “Echoes from Alexandria” 软件,并提供了三个数据集:多语种图书摘要(Echo-Wiki),大压缩多语种图书摘要(Echo-XSum)和抽取式图书摘要(Echo-FairySum);同时,作者们还提出了一种 - ACL多维度评估上下文学习文本摘要
本文研究以背景学习为基础的评估器,在自然语言生成(NLG)的各个方面进行多维度评估,实验证明:相比于基于训练集的评估器,以背景学习为基础的评估器在文本摘要等维度上具备同等的效力和竞争力;研究表明,在确定和数量选择上下文示例因素的影响下,以背 - C2F-FAR 与 ChatGPT 构建的混合式长文本摘要:一项实证研究
本文介绍了一个使用 ChatGPT 和 C2F-FAR 提出的混合抽取和摘要文本的流程,可以用于长篇文章和书籍。机器生成的摘要可以与人工摘要在自动化评估指标下表现得一样好,但在文本连贯性、忠实度和风格等方面仍存在问题。因此,我们认为 Cha - AaKOS:基于知识的、面向方面的意见摘要
本文提出一种面向产品评论的自适应知识型意见摘要模型,有效地捕捉了意见摘要所需的自适应性质并生成面向方面的摘要,能更好地个性化和信息化地为用户提供有用信息,适应用户的不同兴趣和偏好。
- ACL利用话语结构分布进行长文本抽象摘要
本文提出了一个新型的文本摘要模型,RSTformer,综合考虑了修辞关系的类型和不确定性,采用基于文档级修辞结构的 RST-attention 机制,取得了显著的性能优势。
- 通过 ChatGPT 进行迭代文本摘要的 SummIt
本文提出了一种基于大型语言模型的迭代式文本摘要框架 SummIt,它通过自我评估和反馈,利用上下文学习和主题提取器的支持,以人类起草和修订摘要的迭代过程近似地重新精炼生成的摘要,同时解决了一步摘要所存在的内容缺失和虚构问题,并通过三个基准摘 - ACL文本摘要中可解释的自动细粒度不一致性检测
研究提出了 fine-grained inconsistency detection 任务,用于检测文本摘要中的细粒度事实错误类型。通过提出的 FineGrainFact 方法,结合语义帧和语义角色标记来实现明确的事实表示、错误预测和总结改 - 利用对比学习优化非自回归变换器
本文提出了一种基于 DA-Transformer 模型和从模型分布中采点的对比约束的非自回归 Transformer 模型,通过这种方式减轻模态学习的难度,取得了在机器翻译,文本摘要和改写等多个基准数据集中显著的最新非自回归 Transfo - 大型语言模型是否适用于导读阅读?
本篇研究探讨了大型语言模型在参与教育指导阅读方面的能力,着重评估它们从输入文本中生成有意义问题和多样化问题的能力,以及根据学生对问题的回答生成要求他们重新阅读一部分文本的能力。通过我们对 ChatGPT 和 Bard 的评估,我们得出结论: - 摘要现状
本文旨在简明扼要地阐述抽象文本摘要现状,强调需采用预训练编码器 - 解码器模型与大型自回归语言模型。此外,讨论了摘要系统评估的挑战和用于零 - shot 摘要的 instruction tuned 模型的潜力,最后概述了如何将摘要系统整合到 - Gpt-4: 自然语言处理中的进展与机遇综述
OpenAI 开发的第四代 GPT 系列语言模型 GPT-4,具有更强的多语种能力、上下文理解能力和推理能力,可以应用于聊天机器人、个人助理、语言翻译、文本摘要和问答等领域,但也存在计算需求、数据需求和伦理问题等挑战。
- 基于梯度调制的个性化联邦学习在异构文本摘要中的应用
提出一种联邦学习文本摘要方案 FedSUMM,通过动态梯度适配器提供更合适的本地模型参数,并使用差分隐私防止参数泄露,在特定任务的文本摘要任务上达到更快的模型收敛,并在不同的文本摘要优化指标下实现了更优异的性能。
- 基于 Transformer 的模型的判决文本分类比较研究
本研究使用多种自然语言处理模型进行司法文书的预测和摘要,最终得出六种基于自我注意力的转换器模型在四种激活函数下的对比分析结果,准确率高达 99%。
- 使用 ChatGPT 进行类人摘要评估
通过四种人类评估方法对五个数据集上的文本摘要进行评估,研究探讨了 ChatGPT 在人类化摘要评估方面的表现,ChatGPT 优于某些数据集上常用的自动评估指标。此外,研究还分析了不同提示对结果的影响,并与人工评估结果进行了比较,从而探讨了 - San-BERT: 使用 BERT 及其变体进行梵文文档的摘要提取
研究人员使用 Sanskrit 语文本语料库开发了 Sanskrit 语言模型 BERT、ALBERT 和 RoBERTa,并从中提取特征,应用维度降低和聚类技术生成了给定文本的摘要,并公开了一个 Sanskrit Devanagari 文 - GPTEval:利用 GPT-4 进行更有效的人工智能对齐的自然语言生成评估
使用大型语言模型和一种具有连续思考特点的填充范式,提出了一种 NLG 质量评估框架,结合两种生成任务 —— 文本摘要和对话生成,使用 GPT-4 模型作为骨干模型,与以往方法相比性能更好。
- 大型语言模型:多样的角色扮演者用于摘要评估
本文提出了一种新的评估框架,基于 LLMs,并通过比较生成文本和参考文本来提供全面的评估。该模型基于角色扮演者提示机制模拟生成文本的客观和主观维度,并引入了上下文提示机制以生成基于输入上下文的动态角色扮演者配置文件,并根据批处理提示设计了多 - MM使用预训练序列到序列模型进行印度语文摘要
本研究主要关注以预训练序列到序列模型为基础进行文本摘要的任务,研究内容涉及英语、印地语和古吉拉特语。我们尝试了多种模型,对不同模型在三个子任务上的效果进行了对比,同时对数据大小和过滤对模型效果的影响进行了分析。研究发现在有限的数据大小下,k - 基于 TF-IDF 的乌兹别克语文本摘要
基于 TF-IDF 算法和 n-gram 方法在乌兹别克语文本摘要任务中,本研究旨在提取语义重要的部分。学校语料库的实验结果表明,该方法能够有效地从乌兹别克语文本中提取出摘要,并且在信息检索和自然语言处理等多种应用中具有潜在价值。
- 使用预训练模型的抽象文本摘要分析
本文评估了不同预训练模型在不同数据集上的文本摘要效果,通过 ROUGE 和 BLEU 指标比较了三种不同预训练模型在 CNN-dailymail、SAMSum 和 BillSum 三个数据集上的性能表现。