构建词向量字典从文本中提取潜在信息特征:基于道德呼吁的案例研究
本文研究了表情符号在社交媒体上的使用,分析了它与先前的输入法的差异,并使用因果推断的匹配方法检验了表情符号的使用是否会导致用户在Twitter上使用更少的表情符号。
Oct, 2015
本文中,我们提出了一个新的方法,结合基本的文本特征和外部知识库中获取的背景知识来检测推文中的道德价值表达,并在计算社会科学的领域中实现了与单个人注释员相媲美的性能。这是在预测隐含心理变量方面首次尝试使用背景知识。
Sep, 2017
该研究基于WordNet同义词集扩展Moral Foundations Dictionary,提出MoralStrength,这是一个包含约1000个引文的词汇表,并提供了众包数字评估Moral Valence。该研究证明了MoralStrength具有良好的预测潜力,其统计学特征优于目前最先进的技术。
Apr, 2019
本论文介绍了一个新的内在评估任务和方法ValNorm,可通过语义学的统计规律来量化人类主观评价中影响价值维度的词汇,使用静态单词嵌入技术来评估七种语言(中文,英文,德文,波兰文,葡萄牙文,西班牙文和土耳其文)中几组单词的情感价值,并表明意义不同的单词情感价值具有广泛的共享关联。
Jun, 2020
本研究利用预训练转换器对多语言和多领域的输入文本进行情感分析,使用基于趋势-唤醒维度的情感分析方法,比传统方法更细致地区分不同的情感,并发现模型大小对预测质量有显著影响,可自信地预测不同语言的趋势性和唤醒性。
Feb, 2023
通过精心设计的MoralBERT模型,结合社交媒体平台的标注道德数据,探索了道德预测及领域适应技术在理解有争议的社会议题上的应用,结果表明在领域内的预测模型明显优于传统模型,但领域外的泛化仍需进一步探索。
Mar, 2024
我们介绍了一种基于GPT-4生成字幕的方法,通过fine-tune RoBERTa作为文本编码器和CLIP作为图像编码器,改进了以文本和图像为基础的表意编码,取得了明显的性能提升。
Apr, 2024
利用Class Definition Prediction和超边缘嵌入方法构建的集成模型,提高了迷因分类的准确性和全面性,实现了多语言感化技巧的检测任务。
Apr, 2024
大型语言模型(LLM)与人类一样具有说服力,但我们对其原因知之甚少。本文研究了LLM的说服策略,并将其与人类生成的论点进行比较。通过对1251名实验参与者的数据集分析,我们使用认知努力度(词汇和语法复杂性)以及道德情感语言(情感和道德分析)衡量LLM生成和人类生成的论点的说服策略。研究表明,LLM生成的论点需要更多的认知努力,其语法和词汇结构比人类对应论点更为复杂。此外,LLM表现出更强烈的倾向来运用道德语言,与人类相比,更频繁地使用积极和消极的道德基础。与先前的研究相反,没有发现LLM生成的情感内容与人类有显著差异。这些发现有助于关于人工智能和说服力的讨论,突显了LLM通过传播策略对信息的真实性产生同时增强和破坏的双重潜力。
Apr, 2024
对于理解大型语言模型的能力和缓解可能带来的后果,识别由大型语言模型生成的文本至关重要。通过分析不同长度的数据集(小、中、大)以及比较机器学习算法在不同数据集上的性能表现,本研究发现,对于参数非常庞大(比如1542亿参数的GPT2的XL-1542变种)的大型语言模型生成的文本,使用传统机器学习方法更难检测(准确率为74%);然而,对于参数较小(不超过7.62亿)的大型语言模型生成的文本,可以以高准确率(96%及以上)进行检测。本研究还分析了人工与机器生成的文本在语言学、个性、情感、偏见和道德等多个维度上的特点,发现机器生成的文本通常具有更高的可读性和与人类道德判断相似的倾向,但在个性特征上存在差异。而支持向量机(SVM)和投票分类器(VC)模型在大多数数据集上都表现出较高性能,而决策树(DT)模型表现最低。当处理重新表述的文本时,特别是长度较短的文本(如推文),模型性能下降。本研究强调了检测大型语言模型生成的文本的挑战和重要性,并为未来研究提供了改进检测方法和理解大型语言模型细微能力的方向。
Jun, 2024