- 使用 LLM 生成的合成数据在在线政治讨论中的立场检测的力量
本研究利用生成的合成数据,结合最具信息价值的未标记数据样本,通过微调训练方式,在在线政治讨论中显著提高立场检测的性能。
- 推进社交媒体帖子立场注释:对大型语言模型和众包的比较分析
分析了使用大型语言模型在社交媒体中自动进行文本标注的效果和准确性,并探讨了人工标注者与模型的判断差异,发现模型通常在人工标注者很难达成一致意见的情况下表现不佳,对于进一步提高自动立场检测的准确性和全面性,建议综合运用人工专业知识和模型预测的 - ACL增强调节与大型语言模型联合检测立场和揭穿谣言
利用大型语言模型 (LLMs) 作为联合态度检测 (SD) 和谣言验证 (RV) 任务的基础标注工具,我们引入了一种新颖的增强调优框架,以提高 LLM 在两个任务中的联合预测能力。结果表明,JSDRV 改进了 LLMs 在联合任务中的能力, - AAAI零样本立场检测:利用上下文数据生成与 LLMs
利用 GPT-3 生成动态模型适应与上下文数据生成的方法(DyMoAdapt)来进行态度检测,提出了多生成主题 VAST(MGT-VAST)数据集,扩展了 VAST,从而帮助模型理解上下文与不同潜在主题之间的关系
- 缓解预训练立场检测中的立场偏见的相对反事实对比学习
我们提出了相对反事实对比学习(Relative Counterfactual Contrastive Learning,RCCL)方法,用于缓解预训练立场偏差,并保留上下文立场关系。实验证明,该方法优于立场检测和去偏差基线模型。
- CoSD: 协作立场检测与对比异构主题图学习
Collaborative stance detection framework (CoSD) utilizes contrastive heterogeneous topic graph learning and collaborativ - 通过对抗性语言适应实现零样本跨语言立场检测
在多语言状态检测领域,本论文首次引入零样本跨语言状态检测方法(MTAB),通过翻译增强和对抗学习提升了模型效果,实验证明了该方法的有效性。
- 社交媒体上的立场检测与优化的大型语言模型
本研究评估了立场检测方法的演变,从早期的机器学习方法过渡到划时代的 BERT 模型,最终到现代的大语言模型(LLMs),如 ChatGPT、LLaMa-2 和 Mistral-7B。结果强调了 LLMs 在准确检测立场方面的卓越能力,LLa - SQBC: 在线政治讨论中基于 LLM 生成的合成数据的立场检测的主动学习
通过使用 LLM 生成的合成数据,我们提供了两种不同的方法来训练和改进在线政治讨论的立场检测代理:一是通过合成数据增加微调数据集以改善立场检测模型的性能;二是基于 “Query-by-Committee” 方法提出了一种新的主动学习方法 S - COLING探究少样本 跨领域立场检测模型决策的稳健性:一项预注册研究
针对多样观点的新闻推荐系统,识别两个新闻文章是否表达相同观点是至关重要的。本文探讨少样本立场检测的操作化选择的稳健性,特别关注不同主题下的立场建模。实验测试了预注册的关于立场检测的假设,比较了两种立场任务定义(正 / 反对与同一立场),两种 - 低资源立场检测的协作知识注入
我们提出了一种协作知识注入方法,用于低资源立场检测任务,通过知识对齐协作地利用来自不同知识源的目标背景知识,同时引入了参数高效的协作适配器和分阶段优化算法来解决低资源立场检测任务的挑战,实验结果表明相比现有的立场检测方法有显著的性能提升。
- EDDA:一种用于零样本立场检测的编码器 - 解码器数据增强框架
我们提出了一种基于编码器 - 解码器的数据增强框架,通过逻辑关系以及语义相关性的词替换策略,增加了语义相关性和句法多样性,并使得数据在进行神经网络训练时变得可解释。在基准数据集上的实验表明,我们的方法在零样本情况下的立场检测明显优于现有技术 - COLING立场推理器:在社交媒体上的零样本立场检测与明确推理
通过利用事前训练语言模型作为世界知识源,利用推理过程生成中间推理步骤的链式思维上下文学习方法,Stance Reasoner 在社交媒体上的零样本立场检测方面优于现有技术,包括完全监督模型,并且能够更好地推广到不同的目标,并提供明确且可解释 - 对话立场检测的挑战数据集和有效模型
本文介绍了一个新的多轮对话立场检测数据集(称为 MT-CSD),提出了一种全局 - 局部注意网络(GLAN)来解决对话数据中存在的长距离和短距离依赖性,还讨论了跨领域立场检测的挑战和对进展的贡献。
- SocialPET: 社交媒体中少样本立场检测的社交信息指导模式利用训练
社交媒体上的立场检测任务中,我们提出了一种社交感知的方法 SocialPET 来利用语言模型,该方法在仅拥有少量标注实例的情况下,在两个立场数据集上表现出色。
- 基于大型语言模型的在线健康话语中新兴观点挖掘范围
我们开发了一个基于 LLM 的框架,用于在线健康社区中新兴意见挖掘的策划和评估,以匹配 Reddit 中源自帖子标题和评论的(标题,评论)对之间的态度检测问题。我们还释放了一个新的测试数据集,名为 LC-Stance,用于评估在线健康社区中 - 通过视频评论立场分析来解读美国军方的互联网观点:一种新的立场分类基准数据集
这篇文章介绍了 DIVERSE 数据集,包含 17 万 3 千个 YouTube 视频评论,通过一种人机协作的标注方法,使用句子中的弱信号进行标注,研究了社交媒体文本的立场检测问题。
- COLINGDEEM: 动态经验专家模型用于立场检测
使用大型语言模型和动态经验专家建模方法(DEEM)改进 LLMs 推理能力,实现更广泛和可靠的多方位分析,在三个标准基准测试中取得最佳结果并减少 LLMs 的偏差。
- 多模态立场检测:新数据集和模型
通过整合文本和图像的多模态信息,文章提出了一种简单而有效的 TMPT 框架,利用目标信息从文本和视觉模态学习多模态姿态特征,并在三个基准数据集上取得了最先进的多模态姿态检测性能。
- 利用校准策略减轻大型语言模型在立场检测中的偏见
在这篇论文中,我们提出了一种新颖的门控校准网络来减轻大型语言模型在态度检测中的偏见,通过构建反事实增强数据来纠正态度偏见,实验结果表明,提出的 MB-Cal 方法可以有效地减轻大型语言模型的偏见,达到最先进的结果。