Nov, 2023

使用极性最小化损失缓解构架偏倚

TL;DR通过减少极化性输入文章间的极性差异,来降低造成政治极化的框架偏见,我们提出了一种新的损失函数,使模型能够在两个极性极端之间进行双向映射优化。实验证明,结合提出的极性损失函数的效果远优于基于BART的多文档摘要模型,尤其是在训练模型以最小化信息框架偏见(即选择性报道)的极性损失时。