AI-Press:基于大型语言模型的多智能体新闻生成与反馈模拟系统
本文探讨了自然语言生成的技术,并提出了基于“读-关注-评价”流程的新闻评论自动化生成方法,通过阅读网络和生成网络来理解新闻文章并生成评论。实验结果表明,该模型在自动评估和人类判断方面明显优于现有方法。
Sep, 2019
本文对利用人类反馈来提高自然语言生成的研究进行了综述。通过介绍反馈的形式和目标,讨论了直接使用反馈或训练反馈模型两种方法在训练和解码过程中的应用。此外,我们还探讨了与反馈收集相关的现有数据集和问题,并提供了人工智能反馈领域的概述。
May, 2023
社交媒体及其新闻推送算法对于提升构建性对话具有挑战性,本研究使用大型语言模型和基于代理模型的仿真来研究不同的新闻推送算法如何影响在线对话质量,发现新推送算法能够促进跨政治观点的建设性、非有害对话。
Oct, 2023
探索人类如何最好地利用LLMs进行写作,以及与这些模型交互对写作过程中的所有权感和信任感的影响,我们比较了在LLM辅助的新闻标题生成背景下的常见人工智能与人类交互类型(例如,引导系统、从系统输出中选择、后编辑输出)。虽然LLMs单独可以生成令人满意的新闻标题,但平均而言,需要人类对不符合要求的模型输出进行修正。在交互方法中,引导和选择模型输出带来了最大的利益,成本最低(时间和精力)。此外,与自由编辑相比,人工智能辅助对参与者对控制感的认知没有造成伤害。
Oct, 2023
准确模拟人的观点动态对于理解各种社会现象至关重要,包括极化和误信息传播。我们提出了一种基于大型语言模型的人口多智能体模拟观点动态的新方法。我们的发现揭示出语言模型智能体存在对准确信息的固有偏差,导致在科学现实中产生共识。然而,该偏差限制了模拟对气候变化等问题持有抵制观点的个体。在通过启动工程引入确认偏见后,我们观察到观点分裂的情况与现有的多智能体研究一致。这些见解突显了在该领域中大型语言模型智能体的前景和局限,并提出了未来发展路径:通过与真实世界的话语相结合,完善语言模型,以更好地模拟人类信念的演变。
Nov, 2023
基于大型语言模型的虚假新闻传播模拟框架研究了虚假新闻传播的趋势和控制,揭示了与话题相关性和个体特征相关的传播模式,并评估了各种干预策略的效果和成本,证明了大型语言模型在打击虚假新闻方面的重要性和潜力。
Mar, 2024
大型语言模型(LLM)正在日益被用作“内容农场”模型(CFMs),用于生成可以通过真实新闻文章的合成文本。我们展示了只用40K份意大利新闻文章对大部分在英语上进行训练的Llama(v1)进行微调就足以产生意大利本地人难以辨认为合成文本的新闻样本。我们研究了三个LLM和三种检测合成文本的方法(对数似然、DetectGPT和监督分类),发现它们都比人类评比者表现更好,但在实际情况下都不实用(要求对令牌似然信息有访问权或大量CFM文本数据集)。我们还探索了创建代理CFM的可能性:在与真实“内容农场”使用的类似数据集上进行微调的LLM。我们发现只需少量微调数据就能成功创建一个检测器,但我们需要知道使用了哪个基础LLM,这是一个重大挑战。我们的结果表明,目前没有实际的方法来“野外”检测合成类似新闻的文本,而生成它们太容易。我们强调了对这个问题进行更多自然语言处理研究的紧迫性。
Jun, 2024
记者在使用大型语言模型(LLMs)时存在与AI的互动,而研究揭示了记者如何向LLM提供敏感材料并以有限的干预发表机器生成的文章,因此呼吁进一步探讨AI的负责任使用以及在新闻环境中使用LLMs的明确准则和最佳实践。
Jun, 2024
使用大型语言模型(LLM),我们介绍了一种在线工具AudienceView,帮助记者对大量在线观众评论进行分类和解释。该工具能够识别主题、与具体评论关联、提供情感和评论分布的可视化方式,并帮助用户为后续报道项目提供创意。我们考虑这种工具如何在记者的工作流程中有用,并强调上下文意识和人类判断的重要性。
Jul, 2024
本研究探讨了公众对人工智能(AI)生成内容的看法,特别是AI与人工生成新闻之间的感知质量差异。研究发现,无论文章作者是AI还是人类,公众对文章质量的评价相当;然而,披露AI参与生成的信息提高了文章的即时参与度,但并未减少读者对未来AI生成新闻的厌恶感,这揭示了AI在新闻媒体使用中的复杂性。
Sep, 2024