- 决策推理解码:基于反事实的模型在知识发现中的运用
在医学成像中,辨识人工智能模型预测背后的理由对于评估其决策的可靠性至关重要。为了填补这一差距,我们提出了一种具备决策推理和特征识别能力的可解释模型,不仅能够检测有影响力的图像模式,还能揭示驱动模型最终预测的决定性特征。通过实施我们的方法,我 - $T^2$ 的思考:温度树激发大型语言模型的推理能力
通过温度树(T2)提示和粒子群算法优化,提高大型语言模型(LLMs)的推理能力,并动态调整搜索参数以提高决策精度。实验证实,T2oT 方法在单一解精度、多解生成和文本生成质量方面均得到了改进,而固定搜索深度配合 T2oT 的自适应能力提供了 - 竞争的人工智能需要计算论证
人机和 / 或机器之间的动态解释和决策过程是实现可争议人工智能的关键,需要通过计算论证进行支持。
- ε- 公平的不公平性
本文研究了决策过程中的公平性,并提出了基于效用的方法来更准确地评估决策过程的真实世界影响。通过两个实际案例研究,发现传统的概率评估可能无法全面捕捉公平性,而基于效用的方法则可以揭示实现平等的必要行动。总结来说,本文强调了在评估公平性时考虑真 - 减轻大型语言模型中的夸大安全性
通过使用多种提示策略,我们成功地减少了大型语言模型中的过度安全行为,这些策略包括使用 XSTest 数据集、交互提示、上下文提示以及少样本提示,从而使模型能够在拒绝不安全的输入的同时保持有用性。
- 生成模型与联网自动驾驶车辆:探索交通与人工智能的交集调查
本研究探讨生成模型和连接自动驾驶车辆(CAV)两个开创性力量对技术和交通的历史和影响。通过关注生成模型在 CAV 背景下的应用,本研究旨在揭示这种整合如何提高自动驾驶车辆中的预测建模、模拟准确性和决策过程。本论文讨论了在交通运输中将生成模型 - 关于球体 T - 球形模糊(G-TSF)集的研究及其在 G-TSF 多准则群体决策中的应用
本文提出了球形模糊扁球体 (G-TSFSs) 的概念,它作为模糊信息的创新扩展,通过使用球形 / 球限界来表示成员关系、不确定性和非成员度,更准确地描绘了模糊、不明确和不精确的信息,为决策过程提供了更全面的评估对象的能力。通过引入基于 G- - 基于上下文记忆的检索增强规划的多模态 LLM 智能体
通过提出检索增强规划框架,本研究解决了人类行为在当前决策过程中产生的挑战,并展示了该框架在文本场景和多模态任务中的效果,突显了大型语言模型在复杂实际应用中的功能和适用性。
- 多模式基本投资研究的智能生成算法
通过使用语言模型,该研究旨在自动化信息摘要和投资理念生成,以评估 Fine-tuning 方法在 Llama2 基础模型上实现特定应用层面目标的有效性,并通过采用最先进的生成建模技术开发 AI 代理原型,解放人类投资者,使他们能够集中于高层 - AI 幻象:仿冒偏见与人工幻觉时代的深度伪造检测挑战
本文综合分析了法医学和数字取证中的认知偏见,研究其在这些领域决策过程中的影响。它探讨了在法医调查和数字取证分析过程中可能出现的各种认知偏见,如确认偏见、期望偏见、错误自信、情境偏见和归因偏见。它还评估了减少这些情境中的认知偏见和改善决策结果 - 多意图逆向强化学习:用于动物行为特征化
引入了新的动物行为预测模型 —— 潜在(马尔可夫)变量逆 Q 学习(L (M) V-IQL)算法,通过解决离散内在奖励的问题,通过对每个独立解决 IRL 问题的解决 IRL 问题的方法来改进动物行为预测,超过现有基准,产生可解释的奖励函数, - 航向偏见之海:通过因果结构对语言模型进行政治偏见归因
以 ChatGPT 为例,本研究探讨了大型语言模型(LLMs)在感知和解释复杂社会政治环境方面的能力,特别在政治辩论中进行了上下文分析,旨在揭示 LLMs 在解释和裁决 “好论点” 时其决策过程和内在偏见。通过应用 Activity Dep - 使人工智能更易解释的不同方法学综述
人们对越来越多的决策由机器完成的需求增加,但黑盒模型的决策推理令人不解,因此需要关注决策推理的清晰度与可解释性,以及如何扩展到反事实思考。
- 增强计算设计:人工智能在生成设计中的系统化应用
在建筑设计中,该研究论述了通过人工智能与生成设计相结合,可以增强决策过程,并在复杂的设计空间中进行地图绘制和导航,从而实现几个感兴趣的结果和性能指标。
- 开车时说话:使自动驾驶车辆拥有类人交互能力的大型语言模型
未来的自动驾驶车辆依赖于人本主义设计和先进的人工智能能力,本文提出了一个新的框架,利用大型语言模型(LLMs)增强自动驾驶车辆的决策过程,目标是将 LLMs 的自然语言能力和上下文理解、专用工具使用、思维协同和各种模块行为与自动驾驶车辆无缝 - MM遥感图像分类的一次属性可解释人工智能方法的定量分析
本文通过量化评估解释性人工智能技术对遥感图像分类的影响,深入分析了不同类型模型选用 XAI 方法所获得的结果,提供了选择最合适的解释性方法来了解模型决策过程的建议和见解。
- 神经网络的内部结构:基于功能神经元群和网络消融的学习表示特征表征
本文研究神经网络的透明度缺乏问题,通过对激活模式和网络消融的表征,揭示了在完成学习任务时单个神经元和神经元群体的作用,强调了为未来的转移学习和现代神经科学发展提供必需指标的重要性。
- 影响力网络图:代理人信念和决策过程的表达形式
本文提出了一种名为影响网络图的紧凑、自然和高度表现力推理语言,用于推理代理人的信念和决策过程,通过实例展示 NIDs 可以用于描述冲突和循环信念结构以及某些形式的有限理性。