研究了自动写作评估系统如何改善学生写作,着重探讨对论证文本进行修订的相关方面,包括修订类型以及对所给反馈的响应程度。通过分析 5-6 年级学生的论文,引入了一种注释方案来捕捉证据使用和推理方面的修订,并展示了手动注释和修订注释与综合评估的相关性。此外,还研究了自动根据该方案对修订进行分类的可行性。
Jul, 2021
本文探讨如何通过学习在线辩论中的协作编辑行为来捕捉修订模式,以开发旨在指导作者进一步改进其论点的方法,并且我们提出一种基于修订距离的新的抽样策略,以解决修订文字料库的噪声问题。
May, 2023
ArgRewrite V.2 是一个修订语料库,包含用于自动修订目标预测和标杆的注释的论证性修订,这些修订是在关于自动驾驶汽车的论证性文章的两个循环修订中收集的。
Jun, 2022
针对提高学生论述写作水平和有效判断其修改文章的质量的问题,本研究提出了基于 Chain-of-Thought 提示的 ChatGPT 生成论点基础,用于预测其修改后的质量,并在初中和大学学生论文数据集中实验证明了其优越性。
Jun, 2023
本研究通过探索使用文章修订的上下文和反馈信息两种方式来提高分类器性能,以区分学生论述写作中的有意义的证据和合理推理演绎,并进行严格评估和定性分析,研究发现通过使用上下文来辨别有意义的修订是最成功的。
Feb, 2023
本文介绍了一个基于 TETRA 语料库的文档级修订助手。我们探索了无需参考评估和可解释的方法来评估文档修订的质量。实验结果表明,即使修订的差异微小,经过微调的预训练语言模型也能够区分文档修订后的质量,这为未来探索自动文档修订模型和评估指标奠定了基础。
May, 2022
本文提供了一个完整的计算框架,对科学写作中的文本修订进行了研究,通过构建一个新的带有金标准句子对齐的带注释语料库来揭示了科研人员修订论文的常见策略,并利用自动方法在文档、句子和单词级别上提取修订内容。
Oct, 2022
我们开发了模型来对论证写作中的理性修订进行分类。我们探索了两种方法 —— 多任务学习和迁移学习,以利用类似任务的辅助修订数据的优势。结果显示,这两种方法确实可以提高分类器的性能。虽然多任务学习表明同时在不同数据源上进行训练可以提高性能,但迁移学习更好地代表了数据之间的关系。
Sep, 2023
本文提出一种计算论证的质量评估方法,通过比较同一主张的不同版本来评定其质量,证明能够有效泛化于不同主题之间。该方法基于大规模样本库及嵌入式逻辑回归和基于 Transformer 的神经网络,并提供数据和脚本以复现结果。
Jan, 2021
本论文旨在构建一个端到端的文本修订系统,该系统可以通过显式检测可编辑范围及其对应的编辑意图并指导修订模型来迭代生成有用的编辑,从而更准确地模拟迭代文本修订的过程,并在我们的文本修订任务和其他标准文本修订任务上显著优于以前的基线,包括语法错误修正、文本简化、句子融合和风格转换。
Dec, 2022