- EMNLP揭示大型语言模型中的隐含毒性
大型语言模型 (LLMs) 的开放性和出色能力可能导致新的安全问题,在恶意利用中容易产生很难通过零样本提示检测出来的多样化的内隐性毒性输出。此外,我们提出了一种基于强化学习 (RL) 的攻击方法,进一步诱发 LLMs 中的内隐性毒性。例如, - WSDM数据中的魔鬼:通过部分知识蒸馏学习公平的图神经网络
通过知识蒸馏的方式,我们提出了一种无需个人信息的人口属性不可知方法 FairGKD 来学习公平的图神经网络 (GNNs),在性能和效益之间取得了平衡,并在多个基准数据集上验证了该方法的有效性。
- ACLMukhyansh:面向印度语言的标题生成数据集
该研究提出了 Mukhyansh 数据集,其中包含超过 3.39 百万个印度语言标题 - 文章对,用于解决印度语言标题生成中缺乏高质量标注数据的问题,并通过实证分析证明其表现优于其他模型,跨 8 种印度语言平均 ROUGE-L 得分为 31 - EMNLPMergen:蒙古族 - 朝鲜族机器翻译模型的首次训练结果
通过利用珍贵的资源,尝试开发了首个满 - 韩机器翻译模型 Mergen,改进了满 - 韩语之间的翻译结果,有效提高了满语的保存与传承工作。
- MM监督中心点基准用于提取式多文档摘要
通过在句子选择中添加一种束搜索过程和一个质心估计关注模型,我们进一步改进了质心方法,在多个多文档摘要数据集中展示出了改进的结果,包括多语言情景的应用。
- KDDLoCoMotif:发现时间序列中的时间扭曲模式
本文介绍了一种名为 LoCoMotif 的新方法,用于识别时间序列中多次出现的模式,克服了现有方法的限制,并通过理疗的实际应用案例和基准数据展示了其价值和性能优势。
- EMNLP量化韵律与文字之间的冗余性
语调在某种程度上与言语本身及其前后的上下文的信息重复,但仍然包含超越语言的信息。使用大型语言模型,本研究通过英文有声读物中提取的韵律特征与 LLMs 嵌入之间的预测性比较,发现多个韵律特征(包括强度、持续时间、停顿和音调曲线)与言语的信息具 - EMNLP评估吸引心理 - 动词距离对人类和语言模型中的语法一致性的影响
主题动词一致性,吸引名词,转换概率,人工神经网络模型以及反应时间是本研究的主要关键词和研究领域,并基于数据和分析结果提出了有关吸引对主题动词一致性的影响及其可能原因的新研究方向。
- AAAI关于决策聚焦学习的鲁棒性研究
Decision-Focused Learning(DFL)是一种新兴的学习范例,用于训练机器学习模型来预测不完整优化问题的缺失参数。DFL 通过集成预测和优化任务,在端到端系统中训练机器学习模型,从而更好地匹配训练和测试目标。然而,我们对 - MM异步无线联邦学习与概率客户端选择
通过联邦学习解决异步模式下的执行阻塞问题,提出利用概率选择客户端和带宽分配来优化异步联邦学习的收敛速度和移动能源消耗的问题,并通过实验验证了该方法的优越性。
- ICCVICCV 2023 GeoNet 挑战赛的自训练解决方案
GeoNet 是一个最近提出的领域适应基准测试,它包含三个挑战(即 GeoUniDA,GeoImNet 和 GeoPlaces)。我们的解决方案采用了两阶段的无源领域适应框架,使用 Swin Transformer 骨干网络实现了从美国(源 - EMNLP文本对齐到标签树层次结构的医疗分类不平衡问题
本文提出了一种名为 Text2Tree 的新型算法,该算法只利用内部标签层次结构来训练深度学习模型,通过嵌入 ICD 标签树结构到级联注意力模块中,学习具有层次感知的标签表示。引入了相似度替代学习(SSL)和差异混合学习(DML)两种新的学 - CVPR全景视频场景图生成
通过建立综合的真实世界视觉感知系统,我们提出并研究了一个称为全景场景图生成(PVSG)的新问题。PVSG 与现有的视频场景图生成(VidSGG)问题相关,后者侧重于视频中的人与物体之间的时间交互,并基于边界框进行实体识别。然而,边界框在检测 - EMNLP通过因果信息最小化校正多模型偏差
研究论文通过利用因果论的方法,学习混淆因素的表示,并利用这些表示来消除模型中的偏见。研究发现,所学习的混淆因素表示确实捕捉到数据集中的偏见,并且所提出的消除偏见的方法在多个多模态数据集上提高了模型的离分布性能,而不损害在分布性能。
- EMNLP高效语言数据抽样的规模化影响分数
应用影响力分数评估语言分类任务,通过修剪训练数据来量化准确性变化,并提供基于分数采样的建议,以提高准确性和训练效率。
- EMNLP左角转换探索
该研究论文通过泛化之前的左角转换方法,支持半环加权产生规则,并提供了对可以移动的左角进行更精细控制的能力。该泛化的左角转换方法通过用右递归替换左递归,与猜测转换方法定义了等价的加权语言,同时在生成树结构上存在重要差异。除此之外,对 GLCT - EMNLPBERT 走出题材范畴:通过类型分类研究领域转换挑战
基于预训练语言模型的文本分类任务在主题分布变化时仍存在性能差距,本文通过大规模语料库和大量主题的实证研究量化了这一现象,验证了经典 PLMs 和现代大模型都面临领域转移的挑战。同时,通过将训练数据集增加主题控制的合成文本,F1 得分在某些主 - EMNLPDUnE: 统一编辑的数据集
本研究扩大了模型编辑问题的范围,包括去偏和修正推理错误等各种编辑情况,并提出了自然语言表达为编辑的 DUnE 基准。通过大量实验证明,检索增强语言建模可以胜过专门的编辑技术,而两种方法都没有完全解决我们基准涵盖的广义编辑问题。
- CVPR对抗性涂鸦:可解释和可人工绘制的攻击提供可描述的洞察
利用黑色贝塞尔曲线,通过将其覆盖在输入图像上来欺骗目标分类器的 Adversarial Doodles 提供了对攻击和分类器输出之间关系的可描述和引人入胜的见解。
- MM源信息披露对 AI 生成的信息评估的影响:一项双部分研究
人工智能的进展、ChatGPT、信息来源披露、防止吸烟的信息传达和对人工智能的负面态度在影响信息评估和选择方面发挥作用。