使用 Transformer 全流程生成从科学摘要中获取幽默的标题
本研究基于 GPT-3 模型自动生成科学论文摘要,通过机器学习模型结合多种文本表示方法来辨别机器生成文本,并分析模型性能及讨论相关研究问题,旨在揭示人工智能生成文本的能力和局限性。
Apr, 2023
本文提出新的任务:判断一个笑话是否幽默,通过建立基于 Reddit 站点上近 16,000 标记实例的幽默评分模型,使用 Transformer 体系结构实现语句上下文的学习,取得了与人类表现可比较的成果,并在短笑话和双关语数据集上取得了 93.1% 和 98.6% 的 F-measure,这一方法超过了以前用于这些任务的所有先前工作。
Aug, 2019
ChatGPT 生成语言模型的研究中,自动生成的文本需要自动识别以保持信息的透明度和可信度。本研究中,我们试图检测 ChatGPT 生成的摘要,通过提取文本的语义和词汇特性,并观察到传统机器学习模型能够自信地检测这些摘要。
Dec, 2023
本文通过对 mBART 和 BertSumAbs 两种基于预训练 Transformer 模型的微调,在俄语新闻 RIA 和 Lenta 数据集上获得了新的最优结果,其中 BertSumAbs 分别将 ROUGE 提高了 2.9 和 2.0 个百分点。
Jul, 2020
本研究提出了一个基于机器学习的新型幽默挖掘方法,通过结合心理学、语言学与自然语言处理的最新进展,利用一万余篇滑稽论文构建数据集,成功实现自动检测幽默科学论文的任务,并有望在科学研究中发挥重要作用。
Jun, 2021
通过编辑文本,我们研究了大型语言模型(LLMs)是否能够生成用于幽默检测的合成数据。我们对现有的人类数据集进行了基准测试,并展示了当前的 LLMs 在判断幽默性和幽默检测的下游任务中,能够令人印象深刻地去除笑话。我们还将我们的方法扩展到了一个混合编码的英文 - 印地语幽默数据集,发现 GPT-4 的合成数据得到了双语注释者的高评价,并为幽默分类器提供了具有挑战性的对抗性例子。
Feb, 2024
利用促发实验,探索 ChatGPT 的幽默感,发现其不能生成新的笑话,但能够解释 、分类有效的笑话,对于无效笑话则提供虚构解释。ChatGPT 还没有完全解决计算幽默的问题,但是它可以成为 “有趣” 机器的一大飞跃。
Jun, 2023
通过多步推理,我们探讨了一句笑话的生成。通过重构创造幽默的过程并开发工作原型来生成幽默。我们进行了涉及人类参与者的全面实验,将其与人类创造的笑话、零样本 GPT-4 生成的幽默和其他基准进行比较。评估侧重于所生成幽默的质量,以人工标注作为基准。我们的发现表明,多步推理方法始终改善了所生成幽默的质量。我们呈现了结果,并分享了我们实验中使用的数据集,以提供关于如何通过人工智能提升幽默生成的见解。
May, 2024