跨语言情感分类的结构对应学习及一对多映射
通过使用未标记的文档和单词翻译神器,利用结构对应学习方法进行跨语言适应,实现从一种语言到另一种语言的分类知识传递,相对于其它方法,该方法具有资源高效性和任务特异性,并在英语为源语言、德、法、日语为目标语言的跨语言主题和情感分类实验中展现出比机器翻译基线方法平均减少 30%(主题分类)和 59%(情感分类)的较小的相对误差。
Aug, 2010
本文提出一种基于神经网络模型的领域自适应方法,用于一个跨领域的产品情感分类任务中,该方法将表示学习和自编码器神经网络这两个领域自适应技术结合起来,能够更好地处理缺乏标记数据的领域数据,并在 12 个领域问题对上比已有的方法提高了 3.77% 至 2.17% 不等的准确率。
Oct, 2016
本文提出了一个模块化的感知诱导和表示学习模型,联合学习双语感知嵌入,在向量空间中很好地对齐,利用英汉平行语料库中的跨语言信号捕捉语言对中的词汇搭配和分布特征。通过在 Stanford 上下文单词相似性(SCWS)数据集上进行评估,确保单语感知嵌入的质量。此外,我们还介绍了双语上下文单词相似性(BCWS),这是评估跨语言感知嵌入的大型高质量数据集,是衡量学习的嵌入是否在向量空间中确实对齐的第一次尝试。所提出方法展示了在单语和双语空间中评估感知嵌入的优越质量。
Sep, 2018
将 SCL 问题描述为 RoBERTa 语言模型精调阶段的多目标优化问题,使用线性标量化方法和精确 Pareto 最优解法解决优化问题,在多个 GLUE 基准任务上,无需使用数据增强、存储器库或生成对抗性示例,找到了比竞争对比学习基线更好的学习策略。
Sep, 2022
本文提出了一种称为 ESCL 的方法,该方法通过等变学习任务鼓励学习到的表示对某些类型的转换敏感,从而利用敏感的变换,以改善语义文本相似度任务的对比学习,并且通过在多任务学习的角度上共享模型参数来简化算法实现。最终的结果表明,该方法与以前的方法相比在使用更少的学习参数的情况下可以获得更好的结果。
Mar, 2023
利用监督对比学习的高效模型无关框架 SSLCL,通过将离散标签转化为密集嵌入,同时最大化样本特征与其对应的真实标签嵌入的相似性,并最小化样本特征与不同类别标签嵌入的相似性,从而实现在情感识别任务中提高性能的目标。
Oct, 2023
本文介绍了一种使用单线性转换来捕捉跨语言情感关系的方法,并演示了如何在非英语环境下应用跨语言情感模型,以实现对英语情感知识的有效利用,从而使得在缺少数据的情况下,以很低的成本分析和提取其他语言的特征成为可能。
Jul, 2017
本研究分析了在跨语言文本分类中使用 in-context learning 的问题,并提出了一种称为 Cross-lingual In-context Source-Target Alignment (X-InSTA) 的 prompt 构建策略,该策略在 44 个不同的跨语言数据集上表现出了很好的性能。
May, 2023
使用混合语言预训练的交叉语言文摘模型,在没有任务特定组件的情况下利用单语数据提高语言建模的效果,实现了高效的跨语言文摘。在 Neural Cross-Lingual Summarization 数据集中,我们的模型在英汉和汉英模式下相比现有技术,分别实现了 2.82 和 1.15 ROUGE-1 分数的提升。
Oct, 2020