信息偏见检测中的背景
本文探讨了如何利用多种不同级别的语境来检测新闻文章中的信息偏见。通过使用对比学习和句子图形以及 GAT 编码三种不同程度的语境,成功地在不同的事件中组成对比三元组和构建句子图形。实验证明,对比学习和句子图形有效地吸收了不同程度的上下文,显著优于当前 SOTA 模型在句子级情感分析方面的表现。
Jan, 2022
媒体偏见检测需要综合多个新闻来源的信息,以句子级别的政治偏见检测为例,通过考虑上下文中的偏见而进行的任务被证明是一项具有挑战性的任务。我们提出了一种更加小心地搜索上下文的技术,采用偏见敏感和目标感知的数据增强方法,通过与 BERT 等预训练模型的结合,在著名的 BASIL 数据集上进行了综合实验,取得了 58.15 的 F1 得分,明显优于先前方法的最新偏见检测任务。
Oct, 2023
通过研究基于高斯混合模型的概率分布,发现频率和位置对于文章层面的媒体偏见检测至关重要,其次是其精确的时序,相较于只依赖于低水平词汇信息分布的特征和神经文本分类方法。
Oct, 2020
该研究利用构建的数据集和模型分析信息源在新闻报道中的使用,提出了新的任务 —— 信息源预测,并展示了模型在这一任务上的良好表现。该成果为新闻报道领域的内部结构探索和规划性语言生成提供了重要的支持,也为辅助新闻工作者提供源推荐系统提供了重要的思路和实践基础。
May, 2023
本文为了解决公开领域语言模型中偏见检测的问题,就语境化语言模型偏见检测方法和静态单词嵌入偏见检测方法进行了严谨的分析和比较,发现了实现上的一些决策或错误对检测结果可能产生显著的影响,并提出了未来偏见检测方法更好、更健壮、更一致的方向。
Nov, 2022
本篇论文是一项关于新闻文章句子级别的事实性和偏见研究,通过手动标注数据集并 fine-tuning BERT 模型的方法,我们得出了不同媒体和领域新闻报道中存在的偏见和事实的表现情况。
Jan, 2023
信息提取中的定义偏见是一种负面现象,可能会误导模型。为了系统地调查和解决信息提取中的定义偏见,我们提出了一个多阶段框架,包括定义偏见测量、偏见感知微调和任务特定的偏见缓解。实验证明了我们框架在解决定义偏见方面的有效性。
Mar, 2024
通过注意力机制和上下文信息评估单词背景下的信息量,该研究提出了一种用于导出关键上下文元素用于单词理解的有效方法,并探究如何将其应用于学生词汇学习和机器学习中。
Apr, 2022