- 大型语言模型的假设生成
大型语言模型利用数据分析生成假设,通过多臂赌博机设计奖励函数提高预测性能,并发现验证人类理论的新见解。
- 人工智能代理进行自主研究概念的推测性探索
探索研究能力的人工智能代理概念,从研究的概念化视角出发,讨论了问题制定、假设生成和验证以及快速原型制作等相关主题和挑战。
- 基于自然语言模型的最小指导下的自主假设验证
通过探索将 AI 用作自动化研究过程中的工具,我们发现在某些情况下,GPT-4 能够在很少的方法论指导下自主地生成和验证假设,但也存在实现自主且具有人类水平研究能力的挑战,这再次强调了继续探索开发通用和自主的 AI 研究者的需求。
- 大型语言模型的零样本假设提出者
大型语言模型 (LLMs) 可以作为催化剂引发新的科学发现,并指导进一步的探索。
- ICML利用对抗性提示和大型语言模型在天文学中生成健壮假设
该研究探讨了在天文学中应用大型语言模型(LLMs),尤其是 GPT-4,通过上下文提示,将模型提供给多达 1000 篇来自 NASA 天体物理学数据系统的论文,探索通过将模型浸入特定域的文献中可能提高性能的程度。我们的发现表明,在使用上下文 - MM星际闲聊:使用大型语言模型与天文文献交流
本文采用 OpenAI GPT-4 大型语言模型进行天文论文的上下文引导交互,并利用蒸馏技术最优化输入效率。通过 10 个蒸馏文档的多文献语境去探索模型的反应,结果表明 GPT-4 能够提供具有相关研究成果框架背景下的详细答案,对天文学界提 - ChatGPT 是否可用于生成科学假设?
本研究探讨了大型语言模型是否能够进行创造性假设生成,并提出未来科学研究将可能与自动化实验和对抗式同行评审相结合的一种新型 “假设机器” 协同工作模式。
- EMNLPLMdiff:一种用于比较语言模型的可视化差异工具
本文介绍了一个名为 LMdiff 的可视化工具,它可以比较两个不同的语言模型之间的概率分布,并在大型语料库中识别最有趣的短语,为模型行为生成假设,并跨多个案例研究展示了 LMdiff 的适用性。
- ZePHyR: 零样本姿态假设评分
本研究提出了一种用于零样本目标位姿估计的方法,该方法采用假设产生和评分框架,并专注于学习适用于训练中未使用的物体的评分函数,通过对无序点差异的函数对假设进行评级以实现零样本泛化,实验结果表明,该方法在具有纹理和无纹理物体的混乱场景中显著优于 - 通过风险估计进行生物医学假说生成的时间序列正无标记学习
该研究探究了使用动态特征图上的未来连通性预测任务来解决生物医学术语之间存在的重要的隐式联系的假设生成问题,并使用真实的生物医学术语关系数据集和 COVID-19 数据集验证了提出的模型的有效性。
- 从失败中学习的学习计划
该研究介绍了一种基于归纳逻辑编程的学习模型,通过生成、测试和约束三个阶段,不断迭代优化假设(逻辑程序),提高学习性能,其中 Popper 系统在多个领域的实验中表现突出。