写作的路线:大语言模型的概述指导文本生成
通过实证用户研究 (n=30),我们调查了现代大型语言模型 (LLMs) 在协助专业作家方面的效用,发现作家在规划、翻译和审阅等认知活动中都寻求 LLMs 的帮助,尤其在翻译和审阅方面 LLMs 更为有帮助,同时我们的研究结果也强调了利用 LLMs 进行创意写作辅助的未来研究方向。
Sep, 2023
个性化文本生成是一个新兴的研究领域,通过使用大型语言模型 (LLMs),我们提出了一种通用的个性化文本生成方法。借鉴写作教育的实践,我们开发了一个多阶段和多任务的框架来教授 LLMs 进行个性化生成。我们的方法包括检索、排名、总结、综合和生成多个阶段,并引入了一个多任务设置来进一步提高模型的生成能力。我们在三个涵盖不同代表性领域的公开数据集上评估了我们的方法,结果显示相对于各种基线模型,我们取得了显著的改进。
Aug, 2023
这篇论文提出了一种新的计算方法,利用大型语言模型生成提示,以改进写作产品的质量,通过两个案例研究分析了模仿和类比对于改进写作的影响。
Dec, 2023
利用自动检测器识别大型语言模型辅助写作的研究,发现目前的四种先进的自动生成文本检测器性能不佳,提出专门针对大型语言模型辅助写作检测的专用检测器的发展是必要的。这样的检测器可以在科学交流中促进对大型语言模型参与的真实认可,并解决目前对认可实践的挑战。
Jan, 2024
探讨利用大型语言模型(LLMs)控制文本难度的问题,在不完全精通的终端用户环境中(如语言学习者),通过使用新颖框架评估了几种关键方法的效果,包括少样本提示、监督微调和强化学习(RL),使用 GPT-4 和 LLama2-7B、Mistral-7B 等开源替代品。我们的发现揭示了在使用基于提示的策略时,GPT-4 和开源模型之间存在很大的性能差距。然而,我们展示了如何通过精调和 RL 对齐的谨慎组合来弥合这一差距。我们最佳的模型,CALM(CEFR 对齐语言模型),在仅成本的一小部分下超越了 GPT-4 和其他策略的性能。我们通过小规模的人工研究进一步验证了我们结果的质量。
Jun, 2024
该研究通过一个深入的案例研究,评估了大型语言模型在创意写作过程中作为辅助工具的潜力。研究中开发了交互式多声音提示策略,交织了背景描述、指导写作的指令、目标风格的文本示例和给定示例的关键讨论,并从文学批评的角度以及计算创造力的角度进行了定性评估。研究结果支持大型语言模型能够实现高级提示的观点。
Nov, 2023
应用大型语言模型写作系统在预写阶段,通过主题概述的综合来检索和多维度提问以生成有深度和广度与维基百科页面相当的长篇文章,评估结果显示,STORM 的文章在组织性和涵盖范围方面相较于基线模型更为出色。
Feb, 2024
HoLLMwood 是一个自动化框架,通过将大型语言模型分配到不同的角色,包括作家、编辑和演员,来释放它们的创造力并探索其在编剧方面的潜力,研究结果表明 HoLLMwood 在连贯性、相关性、趣味性和整体质量方面明显优于强基准。
Jun, 2024
利用大型语言模型(LLMs)在优化算法领域中的潜力,我们将它们集成到 STNWeb 中,通过生成详细的书面报告和自动生成的图表,提升用户体验,减少研究社区对该工具的采用障碍。同时,我们的方法还可以扩展到优化领域的其他工具,展示了 LLMs 在这一领域的多样性和潜力。
Feb, 2024