Taguchi 基于设计的顺序卷积神经网络用于缺陷紧固件分类
在制造业质量控制阶段,缺陷检测是最重要且具有挑战性的任务之一。本文引入了一种张量卷积神经网络(T-CNN),并在罗伯特・博世公司生产的超声波传感器组件的实际缺陷检测应用中对其性能进行了研究。我们的量子启发式 T-CNN 在减少模型参数空间的基础上操作,从而大幅提高了相当于 CNN 模型的训练速度和性能,同时又不损失准确性。具体而言,我们展示了 T-CNN 如何以质量评价指标衡量的同等性能,在参数数量减少了 15 倍的情况下,训练时间加快了 4% 至 19%。我们的结果表明,T-CNN 大大优于传统人工视觉检测的结果,在制造业的实际应用中具有重要价值。
Dec, 2023
提出了一种基于掩膜区域卷积神经网络(Mask Region-based CNN)的系统,用于在 X 射线图像中识别铸造缺陷。该系统同时执行输入图像的缺陷检测和分割,并采用转移学习来减少训练数据需求并提高训练模型的预测准确性。
Aug, 2018
探讨基于转移学习技术的各种 CNN 模型的性能评估结果表明,DenseNet201 在 NEU 数据集上的检测率最高,达到 98.37%。
Jun, 2024
我们的论文利用卷积神经网络(CNNs)、递归神经网络(RNNs)和生成对抗网络(GANs)为制造业引入一种创新的缺陷检测方法。通过从产品照片中提取精细的细节,并利用 RNNs 检测不断演变的错误,并生成合成缺陷数据来增强模型的鲁棒性和适应性以应对各种缺陷情况。该项目利用深度学习框架在制造过程中实现实时缺陷检测。它利用大量带有注释的图像数据集来识别复杂的缺陷模式。该综合系统无缝地融入生产工作流程,提高效率并提升产品质量。因此,它降低了浪费和运营成本,最终提升了市场竞争力。
Nov, 2023
本文考察了在增材制造过程中利用计算机视觉和原位监测技术获取大型数据集的可能性,并使用卷积神经网络和主动学习技术对其进行分类和优化,形成可减小数据量与需求的人机协作模型。
Jul, 2023
本研究提出了一种基于模式的无监督纺织品异常检测方法,结合了传统卷积神经网络和无监督学习范式的优点。该方法包括预处理、自动模式周期提取、补丁提取、特征选择和异常检测等五个主要步骤。与现有方法相比,我们的方法使用了一种新的动态和启发式的特征选择方法,避免了常用方法中初始化滤波器(神经元)数量和权重以及反向传播机制的缺点。我们的算法在 Patterned Fabrics 基准数据集上展示了可靠和有竞争力的结果,并且具有较低的计算成本和高效的训练时间。
Nov, 2023
准确的缺陷检测对于确保智能铁路系统的可信性至关重要。为了解决样本有限时训练新的缺陷分类器导致过拟合和在未见图像上表现不佳的问题,我们提出了一种可重复使用的基于人工智能的缺陷检测方法。通过将集成学习与迁移学习模型(VGG-19、MobileNetV3 和 ResNet-50)相结合,我们提高了分类准确性,并在某一训练阶段实现了一致的性能。与其他最先进的方法相比,我们的实证分析表明了更好和更一致的性能。这种一致性证实了缺陷检测系统对于新出现的有缺陷的铁路部件的可重复使用性。因此,我们预计这些发现将有助于铁路系统可重复使用的基于人工智能的解决方案的进一步研究和发展。
Nov, 2023
本技术报告在安全关键应用中,研究了用于图像分类的经过训练的卷积神经网络(CNN)的验证结果。通过使用 ANSI/UL 4600 和 ISO 21448 等新标准,结合现有标准 EN 50128 和 EN 50129,证明了类似 Grade of Automation (GoA) 4 的货运自动列车系统确实可以被认证。此外,通过传感器 / 感知器融合,进行了系统级危险率的定量分析,以满足可接受的安全完整性等级(SIL-3)。对 CNN 模型进行了数学分析,从中识别出分类集群和等价类,划分了 CNN 的图像输入空间。利用这些集群和类别,介绍了一种新的统计测试方法,用于确定经过训练的 CNN 的剩余误差概率及其相关的上限置信度。我们认为,考虑到 CNN 模型的内部结构,这种灰箱方法对于证明统计测试全面覆盖了训练过的 CNN 及其神经元和层间映射是至关重要的。
Dec, 2023
提出了一种轻量级的深度学习模型用于在钢铁制造行业中识别表面缺陷,与 MobileNet、Inception、ResNet 和 Vision transformers 等预训练卷积神经网络相比,该新模型具有更高的准确性和更快的推理速度,并采用了深可分离卷积,全局平均池化层和改进的架构高效性增强技术。
Aug, 2022
该研究使用了六种卷积神经网络模型来进行道路裂缝的检测,并使用一个由 14000 个样本组成的新型真实二元裂缝数据集进行微调,观察数据集扩增的效果,并得出 ResNet 和 VGG16 模型具有最高精度为 98% 的结论。
Apr, 2023