Jul, 2024

使用大型语言模型预测在线言辞的限制

TL;DR通过分析社交媒体上的在线言论的可预测性以及是否受到用户自己帖子以外的信息的提升,本研究利用大型语言模型实证测试了这一假设。结果显示,我们的研究对象包括超过五千个X(以前的Twitter)用户及其同行所发布的6,250,000个帖子,通过三个大小从10亿到700亿参数的大型语言模型,我们发现从用户的同行帖子预测该用户的帖子的性能较差。此外,与同行相比,用户自己的帖子对于预测的价值始终较高。总体而言,社交媒体帖子的可预测性较低,类似于在没有上下文情境的情况下预测财经新闻。我们通过详细分析预测不确定性的原因以及我们的结果的稳健性来扩展我们的研究。特别是我们观察到,两个重要因素导致了预测不确定性,即主题标签和@提及。此外,我们的结果得到了重复验证,即使我们不使用额外的上下文而是对附加上下文进行微调。