- 通过逆向相对投影的潜空间转换
通过对相对空间的角度保持相对表示的可逆性进行形式化,并假设神经模型中解码器模块的尺度不变性,我们将两种方法结合起来,通过相对空间获得潜在空间转换的新方法。通过在各种架构和数据集上进行大量实验证实了我们的尺度不变性假设,并证明了我们方法在潜在 - 基于多智能体强化学习的可重构智能表面辅助 VEC
车辆边缘计算通过执行本地任务或将任务卸载到附近边缘设备来实现高强度任务处理,而可重构智能表面则通过灵活调整相位来提供替代通信路径。本文提出了一个新的深度强化学习框架,结合修改后的多智能体深度确定性策略梯度(MADDPG)方法和块坐标下降(B - 优化情绪分析的语言模型:认知科学的见解
借鉴情感和交流方面的认知科学研究,提出改进语言模型用于情感分析的方法,并探讨情感理论、自然语言处理中的情感标注方法及其与心理学理论的关联,以及认知语用学中的情感交流分析方法,最后提出了改进语言模型用于情感分析的方向。
- 表征对齐支持有效的机器教学
一个优秀的教师不仅需要知识渊博,还需要以学生理解的方式进行沟通,与学生分享对世界的认知。本研究结合了机器教学和实用交流的观点,对表征对齐与教师能力促进学生学习的关系进行了量化,设计了一个区分表征对齐与教师准确性的监督学习环境,通过计算实验与 - EpiTwitter: COVID-19 大流行期间的公共卫生信息传播
研究了 COVID-19 期间公共卫生专家和伪专家在推特上的沟通,聚焦情绪和道德语言及其与政治精英的互动,发现专家更注重口罩、医疗、教育和疫苗,使用积极情绪语言,而伪专家更多讨论治疗方法和封锁,使用消极情绪语言,专家的积极语言促进公众回应的 - 学习战略性讨论:一项关于狼人杀的案例研究
通过研究 One Night Ultimate Werewolf (ONUW) 游戏中的讨论策略对玩家效用的影响,本研究发现讨论对于改变玩家信念和提升讨论策略的重要性,并提出了基于强化学习的讨论策略训练框架,通过实验证明了该框架的效果和泛化 - 从顺序信息处理的瓶颈中获取语言结构
人类语言是一种独特的自然界沟通方式,其系统性在于信号可以分解为词汇并通过一种规则方式组合成句子,且通过最小化过剩熵的方式实现自然语言一致性,进而达到高效的沟通和信息处理。
- 分布语义、整体性和意义的不稳定性
分析分布式语义模型的稳定性问题对于跨模型通信的关系。构建两种模型以说明差异性和绝对性稳定性。
- ACL基于理性推理的多模态迷因问答
通过引入 MemeMQA 和 ARSENAL,本研究分析了表情包在多模态沟通中的解释和理解,并展示了 MemeMQA 在回答准确性和文本生成等方面的优越性。
- 基于 LLM 的多智能体强化学习:当前和未来方向
近年来,大型语言模型在问题回答、算术问题解决和诗歌创作等各种任务中展示了强大的能力。尽管关于以大型语言模型为代理的研究表明它可以应用于强化学习并取得不错的结果,但将基于大型语言模型的强化学习扩展到多智能体系统并不容易,因为许多方面,如智能体 - 基于 ADMM 的分布式事件驱动学习
分布式学习问题中,通过在网络上交换信息,代理可以最小化全局目标函数。我们的方法具有两个显著特点:只在必要时触发通信以大幅减少通信量,并且对于不同代理的本地数据分布置之不理。我们分析了算法的收敛速度并在凸设置中导出了加速收敛速率。我们还表征了 - DocuMint: 使用小型语言模型为 Python 生成文档字符串
通过数学公式和人工评估使用 Likert 量表对性能进行定量评估和质量评估,研究了小型语言模型在生成高质量文档字符串方面的有效性,并引入了包含 10 万个样本的大规模监督微调数据集(DocuMint)。
- 稳健联邦学习的进展:异质性考虑
异构联邦学习领域中,关键挑战是在具有不同数据分布、模型结构、任务目标、计算能力和通信资源的多个客户端之间高效协作训练模型。本文首先概述了异构联邦学习的基本概念,并从数据、模型、任务、设备和通信五个方面总结了在联邦学习中的研究挑战。此外,我们 - 使用树空间对 Swadesh 列表进行采样以识别相似语言
研究语言的发展和通信在人类互动中的重要作用,语言研究已经成为定量化任务,其中包括定量比较语言学和词汇统计学,作者关注英语语言和拉丁字母的起源与发展,研究了印欧树追溯到原始印欧语的许多现代语言,通过数据分析使用 3 - 蜘蛛来表示语言聚类,通 - 通过扩展的 RNN 与 Bi-LSTM 模型在 N-gram 语言上增强孟加拉语下一个单词预测和句子完成
本研究论文介绍了一种有效处理孟加拉语下一个词预测和孟加拉语句子生成的双向长短期记忆网络模型,扩展了孟加拉语处理的范围,具有多样性和潜在影响力,在各种新闻门户网站上构建了语料库数据集,并在单词预测方面取得了卓越结果,uni-gram、bi-g - LLaVA 发现免费午餐:教授人类行为提高 LLM 的内容理解能力
训练语言模型以预测接收者行为,可以改善其对内容的理解能力。通过训练语言模型预测接收者的喜欢和评论行为,可以在多种内容理解任务上显著提高性能。
- 一种建模机器学习工程过程的框架
为解决机器学习软件开发复杂性和多学科团队间的沟通问题,本文介绍了基于领域专用语言的机器学习软件开发流程模型框架,该框架通过标准化任务编排、促进沟通、培养协作环境等方式减轻挑战。
- 合作或崩溃:在 LLM 智能体社会中可持续行为的出现
通过 Governance of the Commons Simulation(GovSim)仿真平台,研究了大型语言模型在资源共享中的战略互动和合作决策,发现了在模型共享资源管理能力方面存在的巨大差距,并强调了沟通的重要性。
- 基础物理结构星际学术讨论的几何框架
通过提出一种不依赖字母和数字的表示法来描述物理理论的基本几何结构,本文探讨了抽象思维和高级综合技能可能会促使外星文明接受与地球人类的沟通的可能性。
- 大型语言模型的社交技能训练
人们依靠冲突解决等社交技巧来有效沟通并在工作和个人生活中蓬勃发展。然而,社交技能的实践环境通常难以触及大多数人,那么我们该如何使社交技能培训更加可用、易接近和具有吸引力呢?该文通过从交流学和心理学的跨学科研究提出社交技能进入专业领域的障碍,