Islander: 一个实时的新闻监控和分析系统
本文旨在研究预测新闻媒体报道的真实性和偏见。通过大量的新闻网站以及一些从文章、维基百科页面、推特账户、网址结构和流量信息中得出的特征,实验表明本方法相比基线有较显著的性能提升,且各特征类型都至关重要。
Oct, 2018
本文介绍了一个用于事实核查的自动化平台,该平台能够检索相关文本证据,预测每个证据是否支持或反驳一个声明,并返回最终结论。此外,本文还对这个平台在新闻工作流中的应用进行了用户研究,并为其性能作出了评估。结果表明,该平台的预测正确率为58%,返回的证据中有59%是相关的。
Apr, 2019
本文研究了自动检测不可靠新闻的问题和如何创建更可靠的数据集,发现大规模新闻数据集存在选择性偏差和混淆因素,导致模型的表现不稳定,提出了创建更可靠的数据集的建议。
Apr, 2021
研究发现,随着大型语言模型(LLM)的普及,越来越多的新闻网站开始利用它们生成文章,导致合法网站的 factual 准确性不断下降,不法新闻网站可以利用这些 LLM 大量制造虚假信息。通过对 3074 家不良媒体和主流新闻网站的 12.91 百万篇文章进行分类与研究,发现在 2022 年 1 月 1 日至 2023 年 4 月 1 日期间,主流网站的合成新闻文章相对数量增加了 79.4%。而不良网站的增幅则高达 342%,同时还有所关注的是,ChatGPT 发布后,小型网站和不良媒体的合成文章数量急剧增加,但在大型主流新闻网站上并没有相应的增长。最后,社交媒体 Reddit 中的数据显示,社交媒体用户在 2023 年 3 月比 2022 年 1 月与合成文章的互动更多。
May, 2023
我们提出了一个交互式框架来进行新闻媒体分析,结合了基于图的新闻媒体分析模型、预训练的大型语言模型和人类洞察力,能够在社交媒体上快速检测出假新闻和有偏见的媒体,即使在最具挑战性的新闻事件的情境中,其中有未见过的测试数据。
Sep, 2023
NEWSSENSE使用参考无关的事实验证方法,将用户选择的主要文章与多个不同来源的相关文章链接起来,提供内嵌高亮显示来说明所选文章中特定主张是如何被其他文章的信息支持或反驳的,以帮助用户毫不费力地消化和交叉检查多个信息来源,以及识别关键信息、验证新闻文章的可信度和探索不同观点的潜力。
Oct, 2023
记者需要从大量文本数据中找到故事,并确定文本何时成为新闻,以了解报道模式并建立辅助工具。本研究聚焦于旧金山湾区的本地公共政策新闻报道,通过概率关系建模进行文本链接,定义了新的任务:新闻价值预测,并进行专家记者的人工评估,得出系统在识别新闻价值并提供报道建议方面的高性能结果。
Nov, 2023
通过自然语言处理技术以及其他已确立的自然语言处理方法,本文提出了一个综合框架,以分析在线新闻文本,特别是通过专门针对此目的进行训练的语言模型。该框架整合了十个新闻标准,用于评估新闻文章的质量,研究人员、媒体组织和读者可以更好地评估和理解他们所消费和产生的内容。然而,该方法存在一些限制,如难以检测微妙的偏见及与不断变化的语言模式保持步伐的连续更新需求。
Jan, 2024
新闻领域的推荐系统应考虑新闻文章避免的问题,本研究引入了一种基于避免意识的推荐系统(AWRS),该系统通过考虑用户对新闻文章的避免行为来提供更准确的推荐。评估结果表明,该方法在三个不同语言(英语、挪威语和日语)的新闻数据集上优于现有方法。
Jul, 2024