超越文本:利用多任务学习和认知评估理论进行购后意愿分析
本研究提出了一种适用于电子商务用户数据的BERT模型的自监督预训练表示学习方法,将用户行为数据看作是句子中的单词,并采用统一结构同时学习长期、短期和用户属性。实验证明,该方法在三个不同的实际任务中都能带来显著的改进,尤其是与任务特定建模和多任务表示学习相比。
Feb, 2022
本研究将模型解释问题视为因果推断问题,并引入新的基准数据集CEBaB来评估自然语言处理中基于概念的解释方法的质量,从而比较涵盖不同假设和概念的问题的质量,以建立自然度量方法。
May, 2022
该研究分析了评估理论作为一种情感分析方法的适用性,结果表明评估概念可以可靠地由人工注释和文本分类器恢复,并且可以帮助确定情感类别,因此评估理论构成了一种替代的计算情感分析范式,并进一步提高了联合模型在文本情感分类中的表现。
Jun, 2022
本研究旨在探讨大型语言模型是否能够成为认知模型,并发现通过在心理实验数据上微调这些模型,它们能够提供准确的人类行为表示,甚至在两个决策制定领域中表现比传统的认知模型更好。此外,我们展示了它们的表示含有模拟个体受试者行为所需的信息,并演示了在多个任务上进行微调的能力使得大型模型能够预测以前从未见过的任务中人类行为,这表明预先训练的大型模型可以被改进为通用认知模型,从而开辟了颠覆认知心理学和行为科学的新研究方向。
Jun, 2023
本研究利用认知心理学和信息系统研究来预测数字平台上用户参与和决策过程。通过使用自然语言处理技术和认知偏差研究的见解,我们研究用户与数字内容中的同义词的互动。通过综合用户调查,我们评估了这种模型预测用户参与的能力,发现准确代表核心思想的同义词更易理解,能引起情绪反应,并且常常遇到,能提升用户参与度。重要的是,我们的研究提供了对人机交互、数字行为和决策过程的新视角。我们的结果强调了认知偏差作为用户参与的有力指标的潜力,并强调了它们在教育和营销等领域中设计有效数字内容的重要性。
Jul, 2023
使用语言模型自身来引导任务规范化的学习框架,通过与用户进行自由形式的、基于语言的交互来提取和推断预期行为,在电子邮件验证、内容推荐和道德推理三个领域的实验中,我们展示了通过生成开放式问题或综合信息临界案例等方式激发语言模型表现的结果通常比用户编写的提示或标签更具信息量,用户反馈认为交互式任务引导所需的工作量较小,并能提供用户一开始未曾预见的新颖考虑。研究结果表明,基于语言模型的任务引导可以成为将模型与复杂人类偏好和价值观相一致的强大工具。
Oct, 2023
本研究调查了使用大型语言模型(LLMs)进行心理推断任务,特别是推断用户的潜在目标和基本心理需求(FPNs)的应用。实验结果表明,LLMs能够推断和理解用户的潜在目标和FPNs,具有与人类设计师相当的性能,为增强共情设计方法的可扩展性提供了有希望的途径。
Mar, 2024
利用合作博弈理论中的 Shapley 值独特方法解读大型语言模型的行为和量化每个提示组件对模型输出的相对贡献,揭示了被称为“标记噪声”效应的现象,该现象引发对大型语言模型在人类行为模拟中获得见解的健壮性和普适性的担忧。该研究强调在依赖大型语言模型作为研究对象替代品之前,需要更加细致地了解驱动大型语言模型响应的因素,并强调研究人员在报告结果时受到特定提示模板的条件限制,并要谨慎地在人类行为和大型语言模型之间绘制并行之间的类比。
Mar, 2024
利用贝叶斯统计模型,研究了大型语言模型(LLMs)在人类行为预测方面的类人特性,发现LLMs不能准确捕获人类数据的各项细节,但在聚合和条件水平的预测方面可以有效适配人类数据,显示出某些不同的方法可以使其得到充分的分布式预测。
Jun, 2024
利用MIND多模态框架,从多模态产品元数据中推断购买意向,优化用户体验和提供个性化搜索结果,进而提高大型语言模型的意向理解任务效果。
Jun, 2024