使用异构知识表示进行文本和作者级别的政治推断
本研究旨在解决 fine-tuned 神经语言模型在特定应用中的文本表示优化问题,结合德国政党清单,通过使用基于文档结构启发式策略、最大化党内相似性及标准化等一系列措施,实现对政党相似性的可靠预测,无需人工注释。
Oct, 2022
本文调查了将结构化知识集成到现有的语言模型中的各种方法,并确定了挑战和可能的机会,发现利用基于适配器的注入仍有机会,并且可能将多种探索过的方法进一步结合成一个系统。
Jan, 2021
本研究探讨了如何在不需要从头开始的情况下,在预训练的神经语言模型中添加显式的语言学信息,以提高其性能,并提出了一种基于转换器的神经语言模型,通过异构图转换器对模型进行扩展和微调,这可以通过添加句法信息来实现,而基于斯坦福问答数据集的实证性能评估表明了该方法的竞争性。此方法包括语义和语用方面的信息,具有可扩展性。
Apr, 2022
本文提出了一种新的语法任务集,专注于矛盾检测,并评估了递归模型和 BERT 网络。虽然 BERT 在大多数逻辑形式上具有更好的泛化效果,但在处理计数算子时仍有待改进,同时表明该语法任务可以在不同的语言中实现并实现跨语言传递学习。
May, 2019
利用 “翻译 - 检索 - 翻译” 策略引入推理通识知识,然后将其整合到多语言预训练语言模型中以预测政治极性,证明我们的框架不受所使用的模型的影响,并具有潜力为新闻从业者、社会科学家、新闻制作人员和消费者带来好处。
Dec, 2022
本论文研究了通过将句法信息与深度学习模型相结合,提高自然语言处理任务的性能表现,对多特征的语法 - Transformer 进行了测试,发现在完整数据集和部分数据集中,BLEU 得分都有明显提升,同时,在 GLUE 基准测试中,语法嵌入的 BERT 微调在几个下游任务中表现优于基线。
Nov, 2019
本文进行了一项针对语言模型 BERT 的情感分析任务的实验性研究,重点分析了如何更好地处理 BERT 输出层的不同嵌入以及使用与多语言模型相比更适合巴西葡萄牙语的语言模型的聚合策略和技术,并发现 BERT 在大多数情况下与 TF-IDF 相比取得了更高的预测性能,但 TF-IDF 在预测性能和计算成本之间达到了良好的平衡。
Jan, 2022
使用 Transformer Language Models 等方法对 Yelp 评论进行语言行为学习,并利用 prompt-based queries 生成合成文本以分析特定观点,证明即使在缺乏特定关键词的情况下,这些模型也能准确产生具有正确情感的大量文本。
Apr, 2022
本论文研究了利用上下文学习和预训练语言表示模型来解决过程描述文档中信息提取的问题,与原生 GPT-3 模型一起,通过注入概念定义和少量样本进行了两个上下文学习操作。研究结果显示了该方法的潜力和上下文学习的有用性,同时也指出了控制流关系所带来的挑战。
Mar, 2022