- 基于 Transformer 深度学习算法的大型语言模型(LLM)AI 文本生成检测
通过基于 Transformer 模型的 LLM AI 文本生成检测工具,提高 AI 文本生成检测的准确性并为后续研究提供参考;通过深度学习模型的训练和验证,表明该模型对 AI 生成文本具有良好的检测和分类能力,并具有广泛应用前景。
- EMNLP零资源环境中跨语言序列标注的模型和数据传递
本文通过实验证明使用高容量多语言语言模型应用于零样本(基于模型的跨语言转移)情况下能够比基于数据转移更好地执行跨语言序列标注,这可能是由于语言使用的重要差异所致。
- HiNER:一个大规模的印地语命名实体识别数据集
该论文发布了一份标准符合的,包含 109,146 句子和 2,220,856 个标记的 Hindi NER 数据集,并使用不同的语言模型对其进行了评估,表明其对于 NLP 在 Hindi 方面有着重要的作用。
- 梵文分词和形态分析
在这篇文章中,我们描述了我们参加的梵语单词分割和形态分析比赛,并提出了一个基于序列标注来预测分割操作的单词分割方法和一个基于形态标记预测转换规则来进行形态分析的方法,同时提出了一种用于联合分割和形态分析的端到端可训练的流水线模型,在联合分割 - ACL基于序列标注的自顶向下篇章分析
本研究介绍了一种自上而下的话语分析方法,该方法的目标是将文档迭代地分段成个体话语单元,这种方法不仅消除了解码器,而且减少了划分点的搜索空间,同时使用了 LSTM 模型,在全指标下达到了最新的 RST 分析结果。
- 口语对话序列标记的分层预训练
本文提出了一种新的用于学习适应于语音对话的通用表示的方法,并使用基于 Transformer 架构的分层编码器获得了我们的表示,在新的评估基准下(SILICONE),我们证明了层次编码器在预训练和微调方面的重要性,尽管具有较少的参数,同时实 - ACL基于神经网络序列标注的威胁指标自动识别
本研究提出了一种基于神经网络的序列标注模型来自动识别网络入侵的迹象(IOCs),不需要专家级别的网络安全知识,通过对多个 token 拼写特征使用注意力机制,该模型可以从网络安全报告中识别出低频 IOCs,并取得了 88% 以上的平均 F1 - 使用深度卷积神经网络和 LSTMs 读取汽车牌照
本文提出了一种基于深度学习的级联结构,在自然场景图像中使用卷积神经网络(CNN)和循环神经网络(RNN)来检测和识别汽车车牌,具有高召回率、高精确度和无需分割的优点。
- AAAI在深度卷积序列中阅读场景文本
使用深度文本递归网络(DTRN)进行场景文本识别,包含顺序标记问题,卷积神经网络,长短时记忆 lstm 模型,具有高度的识别准确率,对于高度不确定的单词具有可靠性等优点。
- 用于监督序列标注的稀疏条件随机场的高效学习
本研究采用条件随机场(CRF)来解决监督序列标注的问题,并探讨了如何通过 L1 惩罚实现 CRFs 的高效特征选择,结果表明该方法可以显著加速训练和加标签的速度,并且可以处理更高维度的模型。