首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 78 毫秒
1.
针对安全帽佩戴检测时易受复杂背景干扰,解决YOLOv4网络检测速度慢、内存消耗大、计算复杂度高、对硬件性能要求较高等问题,引入改进YOLOv4算法优化安全帽佩戴检测方法。引入MobileNet网络轻量化YOLOv4、跨越模块特征融合,实现高层语义特征和低层语义特征有效融合。针对图像中小目标分辨率低,信息特征少,多尺度并存,导致在连续卷积过程中易丢失特征信息等问题,采用改进特征金字塔FPN和注意力机制等颈部优化策略聚焦目标信息,弱化安全帽检测时背景信息的干扰。仿真结果表明,基于改进的YOLOv4颈部优化网络安全帽佩戴检测算法在CPU平台下的检测速度为34.28 FPS,是基础YOLOv4网络的16倍,检测精度提升了4.21%,检测速度与检测精度达到平衡。  相似文献   

2.
针对个人防护用具安全帽的防护检测识别需求,现有的人工检测方法费时费力,无法做到实时监测.提出了一种基于YOLOv5s深度学习模型的安全帽检测算法,能够有效识别检测安全帽是否正确佩戴.并通过添加CA注意力机制,重新分配每个空间和通道的权重;以BoT3替代原有的C3模型,作为主干网络;并将CIOU损失函数改为SIOU等方法,改进原有的YOLOv5s模型,提高安全帽检测识别的精度,提高检测速度.实验结果表明,安全帽识别检测的平均精度比原始模型提高了2.2%,识别检测速度提升了19 ms,实现了更准确地轻量高效实时的安全帽佩戴检测.  相似文献   

3.
提出一种基于改进型YOLO v5算法的安全帽佩戴检测方法,通过安全帽区域与头部区域的位置关系判断安全帽佩戴情况,对算法中候选框、卷基层、输入端和量化方法进行改进.通过与其他安全帽佩戴检测方法进行试验对比分析,改进后的算法可以提高识别精度与速度,更好满足实时监控的需求.  相似文献   

4.
针对工地、危险区域等场景需要实现同时佩戴安全帽与口罩的自动检测问题,提出一种改进的YOLOv3算法以提高同时检测安全帽和口罩佩戴的准确率.首先,对网络模型中的聚类算法进行优化,使用加权核K-means聚类算法对训练数据集聚类分析,选取更适合小目标检测的Anchor Box,以提高检测的平均精度和速度;然后,优化YOLO...  相似文献   

5.
为了平衡深度学习网络在网络深度、模型效果和易用性之间的关系,针对安全帽佩戴检测,提出一种基于轻量化模块的改进YOLOv4网络。在主干网络中,采用深度可分卷积和压缩激励机制所组成的模块替换残差块,在不进行内部堆叠的情况下,减少网络的深度和参数量;在聚合网络中,采用反向注意力机制模块增加目标物体的显著信息,使网络获取的特征包含更丰富的细节信息。在公开的安全帽佩戴图像数据集上进行的实验表明,提出方法的模型大小为106.4 M,相比原网络减少了149.9 M,网络检测的平均精确度均值比原网络有所提升,验证了轻量化目标检测方法及其在安全帽检测应用中的有效性。  相似文献   

6.
为实现智能检测室内作业人员是否佩戴安全帽,提出了一种改进的Yolov4算法.首先,针对目前室内安全帽佩戴状态检测实验数据较为匮乏的问题,自建了一个用于室内场景的安全帽佩戴状态检测数据集.随后,为提升室内监控图像中模糊、微小目标的安全帽佩戴状态检测准确率,设计了自校准多尺度特征融合模块并将其嵌入原Yolov4网络中.该模块首先通过深度超参数化卷积从上至下、从下至上融合不同尺度下的特征,加强待检测目标的特征纹理,使得模型能够检测出这两类目标.再通过特征自校准模块对融合后的特征进行过滤,加强或抑制特征图上的每一像素点,使得模型可以在融合后的特征图上进行精确的检测.此外为加速模型收敛,使用解耦合的检测头替换原Yolov4中的耦合检测头,使目标定位任务与安全帽佩戴状态的分类任务相互独立.最后为提升模型对于重叠目标的检测能力,提出了软性非极大值抑制后处理算法Soft-CIo U-NMS.实验结果表明,该改进的Yolov4模型能够准确地识别出室内作业人员是否佩戴安全帽,准确率达到了95.1%.相比于原Yolov4模型,该模型对位于监控摄像头远端的模糊、微小目标和监控图像中重叠目标的检测能力有明显提升...  相似文献   

7.
针对现有的安全帽佩戴检测算法难以有效地检测小目标、重叠和遮挡目标的错检、漏检等问题,提出了一种基于改进YOLOv5的安全帽佩戴检测算法。首先,在主干网络增加了一层有效特征提取层更容易检测小目标,同时对颈部原有的特征金字塔结构进行改进,使特征融合得到加强,提升了对小目标检测的准确性;其次,在主干网络中引入了有效通道注意力机制模块(ECA-Net),更容易获取小目标的关键信息,增强了模型对小目标检测的性能;最后,引入CIOU-NMS替换NMS使得网络既考虑到预测框和真实框之间的重叠面积,还考虑到两个框之间的中心点的距离和宽高比,解决了对重叠和遮挡目标的错检、漏检问题。实验结果证明,改进后的算法平均检测精度(MAP)达到了97.2%,较原始YOLOv5算法提升了3.8%,满足施工场景下对安全帽佩戴检测准确率的要求。  相似文献   

8.
深度学习技术在目标检测领域取得了显著的成果,但是相关模型在样本量不足的条件下难以发挥作用,借助小样本学习技术可以解决这一问题。本文提出一种新的小样本目标检测模型。首先,设计了一种特征学习器,由Swin Transformer模块和PANET模块组成,从查询集中提取包含全局信息的多尺度元特征,以检测新的类对象。其次,设计了一种权重调整模块,将支持集转换为一个具有类属性的权重系数,为检测新的类对象调整元特征分布。最后在ImageNet-LOC、PASCAL VOC和COCO三种数据集上进行实验分析,结果表明本文提出的模型在平均精度、平均召回率指标上相对于现有的先进模型都有了显著的提高。  相似文献   

9.
在施工的过程中,需要对人员安全帽佩戴情况进行快速准确地检测并及时预警,实现减少生命和财产的损失。但现有的安全帽佩戴检测算法存在检测速度慢、检测精准度不高等问题,为解决此类问题,提出了一种基于目标检测算法SSD(Single Shot Multi Box Detector)的改进安全帽佩戴快速检测算法。通过使用轻量型卷积神经网络Mobile Net V3-small替换SSD检测算法的卷积神经网络VGG-16,实现减少模型参数,提升检测速率的目的;同时使用特征金字塔网络结构将深层更抽象的特征与浅层更细节特征进行信息的融合,提升检测精确度;以自主制作安全帽数据集HWear的方式进行训练和测试实验,训练时利用数据增强技术提高模型的检测性能。实验结果表明,改进的SSD算法提升了人员安全帽佩戴检测速率,达到108 fps,同时相比于SSD算法平均精确率(mAP)提升了0.5%,具有一定的实践意义。  相似文献   

10.
11.
根据以往钢铁表面缺陷检测技术的检测效能较低、准确性低的情况,提出一种改进YOLOv5s的钢材表面缺陷检测算法。主要改进为:加入坐标注意力机制(Coordinate Attention,CA)的空洞空间卷积池化金字塔 (Atrous Spatial Pyramid Pooling,ASPP),扩大模型感受野和多尺度感知能力的同时能更好的获取特征位置信息;加入改进的选择性内核注意力机制(Selective Kernel Attention,SK),使模型能更好的利用特征图中的频率信息,提升模型的表达能力;将损失函数替换为SIoU,提升模型性能的同时加快模型的收敛。实验数据表明,改进的YOLOv5s网络模型在NEU-DET数据集上的mAP值为78.13%,相比原网络模型提高了2.85%。改进的模型具有良好的检测型性能的同时检测速度为103.9 FPS,能够满足实际应用场景中钢材表面缺陷实时检测的需求。  相似文献   

12.
针对目前胶囊内窥镜病灶检测模型存在检测疾病单一且效率低等问题,提出了一种基于YOLOv5的胶囊内窥镜病灶区域检测方法。该方法在原始YOLOv5基础上进行了如下改进:首先,在主干网络Backbone部分,添加一个CBAM(convolutional block attention module)模块,增强模型对重要特征的突出能力;其次,在头部网络Head部分,添加一个检测头,增强模型对小目标的检测能力;最后,将原始YOLOv5的泛化交并比(generalized intersection over union, GIoU)损失函数替换成完整交并比(complete intersection over union, CIoU)损失函数,使模型训练时更快地收敛。本文提出的方法在长江大学第一临床医学院提供的胶囊内窥镜影像数据上进行了实验,精确率达到了93.6%,召回率达到了94.3%,mAP@0.5达到了97.2%,而且检测速度达到了每帧0.027 2 s。实验结果表明提出的方法是有效的、灵活的、鲁棒的,能够满足临床医学诊断的实际需求。  相似文献   

13.
针对目前在火灾预警方面还存在火焰烟雾检测效果差、误报率高等问题,在YOLOX框架下提出改进YOLOX_S目标检测算法。首先在数据集建立方面,采用的数据集包括Bilkent University公开的数据集和部分自建数据集,共计9 621张图片。并且通过对数据集采用Mosaic数据增强的方式,增加数据的多样性。其次对backbone部分采用swin-T骨干网络来代替原来的CSPDarkNet骨干网络,能够更好的捕捉不同尺度下的特征,有效地提升了目标检测的精度。然后对网络模型引入加权双向特征金字塔网络(bidirectional feature pyramid network, BiFPN)特征融合网络,提高检测的效率和网络模型的适应性,在复杂背景下同样可以保持较高的检测精度。最后引入CA注意力机制来加强此算法的特征提取能力。经过对比实验表明,改进后的YOLOX_S的火焰烟雾检测算法具有较高准确性,其mAP@0.5(预测框与真实框重合程度的阈值为0.5时的平均检测精度)达到81.5%,相比原网络提高了5.3%。改进后的YOLOX_S网络模型在火焰烟雾检测方面具有更高准确性和更低的误报率。  相似文献   

14.
针对密集场景下行人检测的目标重叠和尺寸偏小等问题,提出了基于改进YOLOv5的拥挤行人检测算法。在主干网络中嵌入坐标注意力机制,提高模型对目标的精准定位能力;在原算法三尺度检测的基础上增加浅层检测尺度,增强小尺寸目标的检测效果;将部分普通卷积替换为深度可分离卷积,在不影响模型精度的前提下减少模型的计算量和参数量;优化边界框回归损失函数,提升模型精度和加快收敛速度。实验结果表明,与原始的YOLOv5算法相比,改进后YOLOv5算法的平均精度均值提升了7.4个百分点,检测速度达到了56.1帧/s,可以满足密集场景下拥挤行人的实时检测需求。  相似文献   

15.
针对目前车位检测方法效率低的问题,提出一种轻量级车位检测方法OG-YOLOv5。首先,基于YOLOv5网络添加车位分隔线方位回归分支,实现车位方位的准确预测,可直接根据网络预测结果推断完整车位信息;其次,通过检测尺度裁剪、Ghost模块重构网络实现模型轻量化;再者,通过在网络主干中引入ECA注意力机制、优化损失函数提高目标预测精度。通过对比实验,结果表明所提OG-YOLOv5网络的mAP达到了98.8%,模型参数量和计算量仅为原模型的32.0%和28.3%,在GPU和CPU上的检测时间分别减少了16.2%和28.1%,车位检测准确率和召回率分别达到了97.75%和96.87%。  相似文献   

16.
绝缘子缺陷检测是电网巡检过程中重要的一环,为提高绝缘子缺陷检测的精度,该文提出一种基于改进YOLOv5算法的绝缘子缺陷检测算法——YOLOv5t,能够在保证网络运行速度的条件下,提升网络的检测精度.该算法在YOLOv5s的基础上,将三重注意力机制(triplet attention)添加到骨干网络中,给予每个特征通道不同的权重,以提高网络的检测精度;并采用CIoU Loss作为网络回归损失的损失函数,提升网络的收敛速度;同时将Soft-NMS作为网络的预测结果处理方法,降低网络的漏检率.YOLOv5t与几种常用的缺陷检测网络的对比实验结果表明,YOLOv5t的准确率达到97.2%,召回率达到98%,平均精度均值达到99.1%,较YOLOv5s算法分别提升了0.9%、5.1%和2.1%,并且检测速度没有受到影响.  相似文献   

17.
郭朦  陈紫强  邓鑫  梁晨 《科学技术与工程》2022,22(27):12038-12044
随着交通行业的发展,交通标志检测识别成为了辅助驾驶系统中最热门的研究方向之一。在实际行车道路中,交通标志具有目标小且类别繁多的特点,针对现有检测与识别算法难以同时兼顾准确度和速率的问题,提出一种YOLOv5l(you only look once version 5l)与视觉转换器(vision transformer, ViT)结合的检测与识别方法。首先采用YOLOv5l对目标进行检测,得出交通标志的位置信息,再将其输入ViT进行分类识别,其中特征连接部分引入DenseNet网络模块,来实现原始特征和卷积后特征映射的密集连接,加强特征的传递性,提高识别率。结果表明:在GTSDB和GTSRB数据集上实验效果更佳,交通标志检测速率达到20 ms,准确率达到98.78%,相比全连接层识别准确率提高了约4%。  相似文献   

18.
盲人脸修复任务是从低质量的图像(例如模糊、噪声和压缩图像)中恢复高质量的图像.由于事先不知道低质量图像的退化类型和退化参数,因此盲人脸修复是一个高度病态的问题,在修复过程中严重依赖各种先验指导.然而,由于面部成分和面部标志等面部先验通常是从低质量图像中提取或估计的,可能存在不准确的情况,这直接影响最终的修复性能,因此难以有效利用这些先验知识.此外,目前的主流方法基本都是依赖ConvNets进行特征提取,没有很好地考虑长距离特征,导致最终结果缺乏连续一致性.本文提出了一种改进的StyleGAN模型,命名为SwinStyleGAN,应用在高级视觉任务上表现出色的Swin Transformer来提取长距离特征,并通过改进后的类StyleGAN合成网络逐步生成图像.本文设计了一个空间注意力转换模块SAT来重新分配每个阶段特征的像素权重,以进一步约束生成器.大量实验表明,本文提出的方法具有更好的盲人脸修复性能.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号