通过模块化和高度自动化的 LUCID 系统,我们产生了一个包含 4,277 个跨 100 个意图的多领域、多意图对话的种子数据集,其中包含了各种具有挑战性的现象和多样的用户行为。
Mar, 2024
该研究提出了一种概率类型推理框架,在 TypeScript 文件中预测缺失的类型。该框架将来自类型系统的逻辑约束与来自命名约定的深度学习模型提取的自然约束相结合,优于先前使用单一信息的模型。
Apr, 2020
本文探讨了使用 transformer 模型对 typed lambda 演算进行类型推导的问题,并对优化器的选择以及 warm-up 的影响进行了实验,发现 Adafactor 比 Adam 和 RAdam 更有效。
Mar, 2023
使用 Scala 语言的 DeepLearning.scala 框架提供了一种创新的自动微分方法,允许用户以直观简洁的方式创建复杂的神经网络,并保持类型安全。
Jul, 2023
该研究论文将 Agda 生态系统扩展到机器学习领域,并提供给机器学习从业者相关资源。作者发布了一个特殊的 Agda 程序证明数据集,该数据集详细且丰富,可以支持各种机器学习应用。基于数据集的超高分辨率,我们提出了一种新的神经网络架构,旨在以结构而非命名原则忠实地表示依赖类型程序。我们在前提选择设置中实例化并评估了我们的架构,取得了强有力的初步结果。
Feb, 2024
Relax 是一种编译器抽象,通过引入一流的符号形状注释来全局跟踪动态形状计算,从而实现端到端的动态机器学习工作负载的优化,并且在各种平台上提供与手动优化系统相媲美的性能,使新兴动态模型能够在更广泛的环境中部署。
Nov, 2023
本研究探索了一类新的端到端可学习模型,其中数据处理节点是根据预期行为而不是显式的前向函数定义的,并且演示了这些模型如何超越当前的深度学习模型,如何通过隐式函数定理进行反向传播导致端到端学习,以及如何在常见的 PyTorch 深度学习软件库中实现这些声明性处理节点。
Sep, 2019
通过使用 GPT-3,本文提出了一种名为 LAD 的数据范式,用于创建多样化和准确的合成数据,以训练下游神经对话模型,实现零 - shot 泛化,并在意图预测、槽填充和下一步行动预测方面实现了显著的性能提升。同时通过交互式人类评估表明,与人类对话训练相比,使用 LAD 训练的效果是有竞争力的。
Jul, 2022
CodeTIDAL5 是一种基于 Transformer 的模型,用于可靠地预测类型注释,并从程序的代码属性图中提取使用片段,其在 ManyTypes4TypeScript 基准测试上优于当前最先进的神经类型推理系统 7.85%,总体准确率达到 71.27%。
Oct, 2023
本文描述了一个支持扩展多模态交互的系统,通过使用大型语言模型 (LLMs) 将用户的英语语句映射到领域特定的代码,我们探索了 LLMs 在上下文敏感性方面捕捉演算发言者意图的程度。