通过利用上下文信息和外部知识辅助定位新闻文章中的特定利益相关者,同时应用了序列增量聚类算法进行实体聚类,本文解决了从新闻报道中提取利益相关者的一系列难题,并检测出其中的固有偏见。实验结果表明,该模型可推广至其他新闻主题。
Dec, 2022
通过微调预训练的 Transformer 模型,利用实体标签或上下文实体表示,探索高效和有效的显著性实体检测方法。实验证明,这些直接的技术在不同规模和显著性定义的数据集上明显优于先前的工作。还研究了知识蒸馏技术,以有效地降低这些模型的计算成本,而不影响其准确性。最后,进行了广泛的分析和切除实验以描述所提出模型的行为。
May, 2024
本篇论文探讨了如何建立可扩展 NLP 系统来直接从海量新闻语料库中发现媒体选择偏差模式的挑战,并针对新闻源的意识形态进行了实证研究,通过无监督的学习方法来捕捉新闻语料库中的媒体选择倾向,为未来的媒体选择偏差研究提供了启示。
Apr, 2023
利用 BERT 模型和 RNN 模型对关键信息进行提取和识别,并通过使用标记的训练数据进行训练,取得了较高的准确度和 F1 分数,这对于现有的基准模型是一次显著改进。
Aug, 2023
通过对利益相关者进行更细致的区分和认知,使黑匣子自动化系统更易于被解释和理解,在机器学习、数据领域和一般环境中对利益相关者进行了表征,并区分了域目标和可解释性任务。通过对我们的框架的描述、评价和生成力的评估,我们发现我们对利益相关者的更微妙的处理揭示了可解释性文献中的空白与机会,增加了用户研究的设计和比较的精度,并促进了更反思性的研究方法。
Jan, 2021
在文本文档中,通过对中的有限实体进行鲜明实体识别可以在多个下游应用领域中实现重要性提取,本研究通过细调中型语言模型以交叉编码器结构取得重大性能提升,同时展示了零 - shot 指令调整语言模型在此任务上表现不佳,凸显其独特且复杂性质。
Sep, 2023
本文介绍了一项新的 NLP 任务,名为 directed sentiment extraction,可用于计算社会科学中分析政治性新闻文本中谁责备或支持谁的情感方向。该方法利用预训练变压器神经网络进行目标分类预测,并结合多种问题回答任务的结果。通过分析美国总统选举和 COVID-19 等两个事件中政治实体之间的正面和负面意见,证明了该方法的实用性,可促进未来 NLP 方法和应用的跨学科研究。
Jun, 2021
本文提出一种名为 KCD 的方法,通过多跳知识推理和文本线索作为段落级标签来进行政治观点的检测,该方法可帮助打破信息封闭和政治极化,实验表明该方法在两个基准数据集上优于当前最先进的方法。
Apr, 2022
使用双编码器模型将来自不同来源的上下文信息与预训练语言模型相结合,提高文本领域内作者立场识别的准确度。
Nov, 2022
本文通过实证分析探讨将立场检测问题建模为通用的文本蕴涵识别任务的可能性,并利用社会科学的测量知识提高模型性能。