架空输电线路杆塔LiDAR点云塔型识别方法
LiDAR Point Cloud Tower Type Identification Method for Overhead Transmission Line Tower
DOI: 10.12677/GST.2022.103016, PDF, HTML, XML, 下载: 329  浏览: 1,263  科研立项经费支持
作者: 吴少龙*:武汉大学测绘遥感信息工程国家重点实验室,湖北 武汉;裴嘉伟*, 吴宇宸:武汉大学电子信息学院,湖北 武汉;邵文轩, 郑欣婷:武汉大学遥感信息工程学院,湖北 武汉;张润凡:武汉大学电气与自动化学院,湖北 武汉
关键词: 智能电网电塔塔型实时识别LiDAR点云PCA深度学习Smart Grid Real-Time Identification of Tower Type LiDAR Point Cloud PCA Deep Learning
摘要: “智能电网”的构建是现代化社会电力系统建设规划与发展的重中之重,输电走廊的数字化作为其中的重要一环,然而,现阶段输电走廊数字化仍需耗费大量人工,其自动化水平亟待提升。而输电杆塔的建模效率能否提升成为了决定整个输电线路三维建模效率的主要因素。为解决杆塔建模效率的问题,本文作为模型驱动的输电杆塔建模方法的前期工作,提出了一种基于PCA算法与YOLOv5目标检测算法结合的塔型识别方法。该方法首先使用PCA算法提取电塔的主方向,通过主方向投影实现了杆塔点云的二维转换,并将主方向投影图作为网络模型的输入,进而通过YOLOv5算法实现了电塔的塔型识别。实验表明,本文所提出的方法能够实现对输电杆塔点云数据实时精确的塔型识别:塔型识别的平均精确度map@0.5为0.867,识别速度为0.02 s。
Abstract: The construction of “smart grid” is the top priority of the construction planning and development of the modern social power system, and the digitization of the transmission corridor is an important part of it. However, at this stage, the digitization of the transmission corridor still requires a lot of labor, and its automation level needs to be improved urgently. Whether the modeling efficiency of transmission towers can be improved has become the main factor that determines the efficiency of 3D modeling of the entire transmission line. In order to solve the problem of tower modeling efficiency, as the preliminary work of model-driven transmission tower modeling method, this paper proposes a tower type identification method based on the combination of PCA algorithm and YOLOv5 target detection algorithm. The method first uses the PCA algorithm to extract the main direction of the tower, realizes the two-dimensional transformation of the tower point cloud through the main direction projection, and uses the main direction projection map as the input of the network model, and then realizes the tower shape of the tower through the YOLOv5 algorithm. identify. Experiments show that the method proposed in this paper can realize real-time and accurate tower type recognition for point cloud data of transmission towers: the average accuracy of tower type recognition map@0.5 is 0.867, and the recognition speed is 0.02 s.
文章引用:吴少龙, 裴嘉伟, 吴宇宸, 邵文轩, 郑欣婷, 张润凡. 架空输电线路杆塔LiDAR点云塔型识别方法[J]. 测绘科学技术, 2022, 10(3): 161-172. https://doi.org/10.12677/GST.2022.103016

1. 引言

电力系统的稳定运行关系到我国的国计民生。电力线路在野外时刻面临着遭受外力破坏的风险,为了保证高压输电系统的安全稳定运行,对高压输电系统进行定期监测是必不可少的 [1]。电塔作为输电走廊中的关键设施,在保障电力系统的安全运行中起着至关重要的作用。输电杆塔的三维重建有助于电力系统管理、故障预防排查以及输电走廊的三维可视化,同时杆塔重建也是“智能电网”构建的重要一环 [2]。

作为输电杆塔三维重建重要的基础工作,如何实现精确快速的输电杆塔塔型识别也是学者们关注的问题。对此,郑晓光等使用人机交互的方式,实现了数据的可视化和语义的判读,从而实现人工塔型识别。H Wang [3] 等通过支持向量机(SVM)算法确定了输电杆塔的塔型识别。Zhou等 [4] 通过将杆塔点云和粗糙模型放大到相同的尺度并转换成二值图像,利用形状上下文算法来识别杆塔的类型。

近年来随着卷积网络的发展,其优秀的特征提取能力,更高的准确率,更快的运算速度等特点使得基于深度学习的检测方法得到广泛研究。目前,基于深度学习的目标检测算法主要分为两类:二阶段(Twostage)和一阶段(One stage)目标区域提取算法。常见two stage算法有:R-CNN系列 [5] [6] [7],SPP-Net [8] 和R-FCN [9] 等。常见的one stage目标检测算法有:Over Feat [10],YOLO系列 [11] [12] [13],SSD系列 [14] 等算法。深度卷积神经网络也被广泛应用在电力领域 [15] [16] [17],深度学习技术在杆塔自动化识别的工作中具有很大的潜力。

本文提出了一种基于PCA算法 [18] [19] [20] [21] [22] 和YOLOv5的杆塔塔型识别模型。我们的模型可以高效率地从无人机巡检所产生的数据中辨别出输电杆塔的塔型类别,从而为后续建模工作提供支持。本文使用数据主要为电塔点云数据,该方法也可推广于由倾斜影像重建的三维点云数据 [23]。

本文主要贡献:

1) 利用PCA算法,将杆塔点云沿着主方向投影到二维平面作为模型输入。

2) 利用YOLOv5网络实现杆塔的塔形识别,既能保证识别的准确度与可靠性,又能加快检测速度,实现实时目标检测。

2. 方法

本文基于PCA主成分分析算法实现了杆塔点云的主方向投影,并将投影后的二维影像作为输出,后续采用基于深度学习的方法实现了杆塔类型的识别。

杆塔的总体结构是对称的,但是直接对激光雷达采集的杆塔点云进行塔型识别等处理较为复杂,所以我们首先将点云沿主方向投影到二维空间,然后对二维投影图进行处理,进而实现了杆塔的精确类型识别。基于LiDAR点云的塔型识别流程图如图1所示。

Figure 1. Tower type recognition flow chart based on LiDAR point cloud

图1. 基于LiDAR点云的塔型识别流程图

2.1. 基于PCA的主方向投影

点云较于二维数据,优势明显,但是因为点云数据的稀疏性、离散化、无序性等特点,直接以三维点云数据作为输入的网络模型,往往存在着不同的缺陷,例如体素化模型存在过大的运算量与内存占用,甚至由于稀疏性导致过多的空voxels出现,导致计算资源的浪费。同时庞大的点云数据规模更是严重制约了算法的实时性。因此本文利用PCA算法,通过主方向投影杆塔点云投影到二维空间作为模型输入。

PCA算法是一种常用于数据降维和特征提取的数据分析方法。该算法的主要思想是:将高维向量从原始空间投影到一个低维的向量空间,这种转换可以通过一个特殊的特征向量矩阵实现。这种转换也能实现由转换结果重构原始高维向量。该算法的步骤如下:

1) 设有m条n维数据,将这些数据用向量形式表示,并按列构成矩阵X;

2) 将每一行数据进行零均值化;

3) 求得协方差矩阵 C = m X X T

4) 求出C的特征值以及该特征值所对应的特征向量;

5) 将特征向量规范化;

6) 将求出的特征值按从大到小的顺序排列,然后依照特征值的排列顺序将特征向量按行组合成矩阵,并将矩阵的前k行提取出来,作为矩阵P;

7) Y = P X 即为将原始数据维度降低到k维之后的数据。

为了充分利用杆塔结构的对称性,以便后续塔型的识别,本文将杆塔的上部扫描点投影到XY平面上进行均匀采样;然后利用PCA [24] [25] 算法计算采样点云的特征值和特征向量,将最小特征值对应的特征向量 V ( v 1 , v 2 ) 的方向指定为X'轴;最后,旋转角度和点坐标 ( x p , y p ) 由式(2.1)计算。

{ θ = arccos ( v 1 v 1 2 + v 2 2 ) x p = x p cos ( θ ) y p sin ( θ ) y p = x p sin ( θ ) + y p cos ( θ ) (2.1)

基于PCA的主方向投影,实现了输电杆塔点云主方向的提取以及主方向的投影,重定向后的杆塔点云图与主方向投影图如图2所示。

(a) (b) (c)

Figure 2. Extraction of point clouds’ main direction and projection. (a) Original point cloud; (b) Redirected point cloud; (c) Results of projection in the principal direction

图2. 杆塔主方向提取并投影。(a) 原始点云图;(b) 重定向点云图;(c) 主方向投影图

2.2. 基于YOLOv5的塔型识别

YOLO是由Redmon和Divvala提出的一种深度学习目标检测算法,属于one-stage目标检测算法,能实现端到端的识别,既能保证识别的准确度与可靠性,又能加快检测速度,实现实时目标检测 [26]。YOLOv5算法共有YOLOv5s、YOLOv5m、YOLOv5l和YOLOv5x,共4种网络结构,这四种网络结构在宽度和深度上不同,其中宽度越大的网络其卷积核数量越多,网络中的卷积操作更多,也就意味着网络所需要的计算量越大,但同时,其特征提取能力也就越强,目标检测速度越快,检测准确性越高 [27]。YOLOv5的网络结构如图3所示,结构分为输入端、Backbone (主干网络)、Neck网络和Prediction (输出端)四个部分 [28]。

Figure 3. Network structure diagram of YOLOv5

图3. YOLOv5的网络结构图

1) 输入端:输入端对于不同尺寸大小的输入图片首先将其统一调整为640*640,并采用Mosaic数据增强、自适应锚框计算以及图像自适应缩放对输入图像完成预处理 [29]。

2) Backbone网络:Backbone部分由Focus下采样、CBL、改进的CSP以及SPP池化金字塔模块组成,用于提取图片的特征信息,可生成输入图像5次下采样的特征图 [30]。

3) Neck网络:Neck部分采用特征金字塔网络(FPN) [31] [32] 和金字塔注意力网络(PAN) [33] [34] 的组合结构。通过自顶而下的FPN层,采用上采样操作,将传递的上层特征信息进行融合并传递给网络中的下层,传达强语义特征。而通过自底而上的包含有两个PAN结构的特征金字塔,通过下采样操作,将低层的特征信息和高层特征进行融合,输出预测的特征图,传达强定位特征,加强了网络特征提取能力。

4) 输出端:输出端采用GIOU_Loss [35] [36] 损失函数,减少了单纯IOU损失的不足。传统的IOU及其边框损失表达式如式2.2.1与式2.2.2所示,GIOU及其边框损失表达式如式2.2.3与式2.2.4所示。GIOU与IOU一样具有尺度不变性,即当目标边框等比例放大缩小时,损失能仍然保持相同的量级,不需要对不同大小的边框作出不同的处理。但是,相比于IOU,GIOU加入了对非交叉面积比例的考虑,非交叉面积定义为预测框与真实框的最小外接矩形集合C和预测框与真实框并集的差。且对比与IOU损失,GIOU具有偏离趋势度量的能力。对于传统的IOU损失,当真实边框与预测边框不相交时,IOU计算值始终为0 [37],对于不同远近距离的边框其损失计算值都相同。但是GIOU损失函数随着真实边框与预测边框距离的不断增加,其计算值会表现出越接近于−1,计算出损失就会越大,因此,即使真实边框与预测边框不相交,也能根据GIOU损失计算值判断出两者的偏离距离远近。

IOU = | A B | | A B | (2.2.1)

L IOU = 1 IOU (2.2.2)

GIOU = IOU | C \ ( A B ) | | C | (2.2.3)

L GIOU = 1 GIOU (2.2.4)

其中,集合A、B分别为真实边框与预测边框;集合C为真实边框与预测边框的最小包围框。

YOLOv5方法中的塔型检测识别过程如图4所示。其主要实现步骤为:

1) 图像分割:YOLOv5将输入图像分割为N × N个网格,每个网格负责预测落在该网格内的物体;

2) 边界框预测和分类:对每个网格预测若干个边框,包括每个边框是目标的置信度及每个边框区域在多个类别上的概率;

3) 提取网格特征:对图像完成卷积运算操作,获得特征图;提取特征图上每个边框内的特征形成高维特征向量;

4) 图像中目标的识别分类:每个网格预测多个边框,根据计算得到分类误差、置信度以及类别概率等判别塔型。

Figure 4. Tower type identification process of YOLOv5

图4. YOLOv5塔型识别过程

3. 实验

3.1. 数据集

本实验所使用的数据主要为激光雷达采集的杆塔点云数据,均由无人机巡检系统所采集。本实验所识别的杆塔类型主要有鼓型、V字型、酒杯型、干字型,共计2736张杆塔点云。其形状如图5所示:

(a) (b) (c) (d)

Figure 5. (a) Gu pylon; (b) V pylon; (c) B pylon; (d) G pylon

图5. (a) 鼓型;(b) V字型;(c) 酒杯型;(d) 干字型

对数据集进行分析得到可视化结果如图6所示。经分析可看出Wpylon,Vpylon,Tpylon三种塔型在杆塔数据集中分布占比较少,酒杯塔占绝大多数,反映了杆塔数据集的特征是平坦地区以酒杯塔为代表的直线塔型居多,从label大小分布可看出其主要分布在0.5附近可以看出数据集的特征分布较为集中,保证了目标检测的准确性。

Figure 6. Number, size and center point distribution of labels

图6. 标签数量、大小及中心点分布

3.2. 模型训练与测试

3.2.1. 评价指标

本文算法性能的指标主要包括准确率(Accuracy)、精确率(Precision, P)、召回率(Recall, R)、平均精度均值(mean Average Precision, mAP)、PR曲线等。其中精确率P定义为正确分类个数与所有识别出来的个数之比。召回率R定义为已经识别个数与应该识别个数之比;置信度为0.5时的平均准确率MAP@0.5定义为在超过0.5时就被认定为某类物体的前提下的平均准确率。其中准确率,精确率与召回率公式如(3.1.1),(3.1.2)与(3.1.3)所示:

Accuracy = ( TP + TN ) / ( TP + TN + FN + FP ) × 100 % (3.1.1)

Precision = TP / ( TP + FP ) × 100 % (3.1.2)

Recall = TP / ( TP + FN ) × 100 % (3.1.3)

3.2.2. 配置参数

本文实验的软硬件平台如表1所示,训练集和测试集分别包含了2456和250张杆塔点云重定向后的主方向投影图。

Table 1. The hardware and software platform of the experiment

表1. 实验的软硬件平台配置参数

3.2.3. 模型训练

在训练过程中,我们将epochs设定为300次,batch size设定为32,img-size设置为[640 640],cfg设置为yolov5s.pt。随着训练轮次的增加,对检测精确度进行分析,可以看出当训练次数达到200轮左右时,检测精确度不再有显著提升。训练指标可视化图像如图7所示:

Figure 7. Curve of confidence change

图7. 置信度变化曲线图

3.3. 实验结果

根据训练过程生成的模型,得到如下图8所示的PR曲线值:

Figure 8. PR graph

图8. PR曲线图

从PR曲线图可以看出在召回率低于0.6的情况下,除了steel pipe pylon外其他杆塔的precision都能够保持一个较高的值,这符合了steelpipepylon形态特性与其他杆塔差距较大的特点。所有类型杆塔点云识别的平均精确度map@0.5为0.867,这一准确率基本满足目标检测的要求。利用已训练模型对电力杆塔目标进行检测,结果如图9所示:

Figure 9. Power tower type identification and detection result diagram

图9. 电力杆塔类型识别检测结果图

本文还通过进一步计算召回率、精确率、平均准确率等指标对检测结果进行定量评价。各类评价指标的计算结果数据如表2

Table 2. The calculated data of each index in the experimental results

表2. 实验结果中各指标的计算结果数据

4. 结语

本文通过对现有主流杆塔识别检测方法的综合分析,提出了基于PCA算法获取杆塔点云主方向投影,结合YOLOv5深度学习模型,提出了一种准确高效地识别输电杆塔类型的方法。由于采用比杆塔点云更易于检测的主方向投影图作为数据集,本训练模型一定程度上改善了目标检测的准确率并增加了新的类别。不足的是由于杆塔数据集类型比例不平衡,部分塔型数据较少造成对某些类的识别准确率较低,因此在后续工作中会做进一步提升。

基金项目

1) 武汉大学国家大学生创新创业训练计划项目,项目编号:202110486108;

2) 武汉大学知卓时空智能研究基金资助。

NOTES

*共同第一作者。

参考文献

[1] Matikainen, L., Lehtomäki, M., Ahokas, E., Hyyppä, J., Karjalainen, M., Jaakkola, A., et al. (2016) Remote Sensing Methods for Power Line Corridor Surveys. ISPRS Journal of Photogrammetry and Remote Sensing, 119, 10-31. https://doi.org/10.1016/j.isprsjprs.2016.04.011
[2] Fang, X., Misra, S., Xue, G. and Yang, D. (2011) Smart Grid—The New and Improved Power Grid: A Survey. IEEE Communications Surveys & Tutorials, 14, 944-980. https://doi.org/10.1109/SURV.2011.101911.00087
[3] Wang, H. and Hu, D. (2005) Comparison of SVM and LS-SVM for Regression. 2005 International Conference on Neural Networks and Brain, IEEE, 1, 279-283.
[4] Zhou, R., Jiang, W., Huang, W., Xu, B. and Jiang, S. (2017) A Heuristic Method for Power Pylon Reconstruction from Airborne LiDAR Data. Remote Sensing, 9, Article No. 1172. https://doi.org/10.3390/rs9111172
[5] Girshick, R., Donahue, J., Darrell, T. and Malik, J. (2014) Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Columbus, 23-28 June 2014, 580-587. https://doi.org/10.1109/CVPR.2014.81
[6] Girshick, R. (2015) Fast R-CNN. Proceedings of the IEEE International Conference on Computer Vision, Santiago, 7-13 December 2015, 1440-1448. https://doi.org/10.1109/ICCV.2015.169
[7] Ren, S., He, K., Girshick, R. and Sun, J. (2017) Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks. IEEE Transactions on Pattern Analysis and Machine Intelligence, 39, 1137-1149. https://doi.org/10.1109/TPAMI.2016.2577031
[8] He, K., Zhang, X., Ren, S. and Sun, J. (2014) Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition. IEEE Transactions on Pattern Analysis & Machine Intelligence, 37, 1904-1916. https://doi.org/10.1109/TPAMI.2015.2389824
[9] Dai, J., Li, Y., He, K. and Sun, J. (2016) R-FCN: Object Detection via Region-Based Fully Convolutional Networks. Proceedings of the 30th International Conference on Neural Information Processing Systems, Barcelona, 5-10 December 2016, 379-387.
[10] Sermanet, P., Eigen, D., Zhang, X., Mathieu, M., Fergus, R. and LeCun, Y. (2013) OverFeat: Integrated Recognition, Localization and Detection Using Convolutional Networks. arXiv:1312.6229.
[11] Redmon, J., Divvala, S., Girshick, R. and Farhadi, A. (2016) You Only Look Once: Unified, Real-Time Object Detection. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, 27-30 June 2016, 779-788. https://doi.org/10.1109/CVPR.2016.91
[12] Redmon, J. and Farhadi, A. (2017) YOLO9000: Better, Faster, Stronger. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, 21-26 July 2017, 6517-6525. https://doi.org/10.1109/CVPR.2017.690
[13] Redmon, J. and Farhadi, A. (2018) YOLOv3: An Incremental Improvement. arXiv: 1804.02767.
[14] Liu, W., Anguelov, D., Erhan, D., Szegedy, C., Reed, S., Fu, C.-Y., et al. (2016) SSD: Single Shot Multibox Detector. European Conference on Computer Vision, Amsterdam, 11-14 October 2016, 21-37. https://doi.org/10.1007/978-3-319-46448-0_2
[15] 王万国, 田兵, 刘越, 刘俍, 李建祥. 基于RCNN的无人机巡检图像电力小部件识别研究[J]. 地球信息科学学报, 2017, 19(2): 256 263.
[16] 杨晓旭, 温招洋. 深度学习在输电线路绝缘子故障检测中的研究与应用[J]. 中国新通信, 2018, 20(10): 208-210.
[17] Nordeng, I.E., Hasan, A., Olsen, D. and Neubert, J. (2017) DEBC detection with deep learning. Scandinavian Conference on Image Analysis, Tromsø, 12-14 June 2017, 248-259. https://doi.org/10.1007/978-3-319-59126-1_21
[18] Shlens, J. (2014) A Tutorial on Principal Component Analysis. arXiv preprint arXiv:1404.1100.
[19] Bell, A.J. and Sejnowski, T.J. (1997) The “Independent Components” of Natural Scenes Are Edge Filters. Vision Research, 37, 3327-3338. https://doi.org/10.1016/S0042-6989(97)00121-1
[20] Bishop, C.M. (1995) Neural Networks for Pattern Recognition. Oxford University Press, Oxford, 253-290
[21] Lay, D.C. (2003) Linear Algebra and Its Applications. Pearson Education, India.
[22] Mitra, P.P. and Pesaran, B. (1999) Analysis of Dynamic Brain Imaging Data. Biophysical Journal, 76, 691-708. https://doi.org/10.1016/S0006-3495(99)77236-X
[23] 王旭科, 闫世伟, 李艳芳, 李龙. 基于机载LiDAR和倾斜影像的城市三维建模方法[J]. 北京测绘, 2021, 35(1): 51-55.
[24] Wold, S., Esbensen, K. and Geladi, P. (1987) Principal Component Analysis. Chemometrics and Intelligent Laboratory Systems, 2, 37-52. https://doi.org/10.1016/0169-7439(87)80084-9
[25] Mouat, D.A., Mahin, G.G. and Lancaster, J. (1993) Remote Sensing Techniques in the Analysis of Change Detection. Geocarto International, 8, 39-50. https://doi.org/10.1080/10106049309354407
[26] 郭敬东, 陈彬, 王仁书, 王佳宇, 仲林林. 基于YOLO的无人机电力线路杆塔巡检图像实时检测[J]. 中国电力, 2019, 52(7): 17-23.
[27] 张斗斗, 晏子奕, 周良杰, 蔡先乔, 汪海波, 惠康华. 基于YOLOv5的机场飞行区目标检测方法研究[J]. 建模与仿真, 2022, 11(2): 432-441. https://doi.org/10.12677/MOS.2022.112040
[28] 许德刚, 王露, 李凡. 深度学习的典型目标检测算法研究综述[J]. 计算机工程与应用, 2021, 57(8): 10-25.
[29] 邱天衡, 王玲, 王鹏, 白燕娥. 基于改进YOLOv5的目标检测算法研究[J/OL]. 计算机工程与应用: 1-13. http://kns.cnki.net/kcms/detail/11.2127.TP.20220402.1028.002.html, 2022-04-19.
[30] Qiao, S., Sun, Y. and Zhang, H. (2020) Deep Learning Based Electric Pylon Detection in Remote Sensing Images. Remote Sensing, 12, Article No. 1857. https://doi.org/10.3390/rs12111857
[31] Pathak, A.R., Pandey, M. and Rautaray, S. (2018) Application of Deep Learning for Object Detection. Procedia Computer Science, 132, 1706-1717. https://doi.org/10.1016/j.procs.2018.05.144
[32] Bhattarai, S. (2018) Multi-Scale Object Detection in Aerial Images with Feature Pyramid Networks. Ph.D. Thesis, The University of Texas, San Antonio.
[33] Li, Y., Xiao, Z., Zhen, X. and Cao, X. (2019) Attentional Information Fusion Networks for Cross-Scene Power Line Detection. IEEE Geoscience and Remote Sensing Letters, 16, 1635-1639. https://doi.org/10.1109/LGRS.2019.2903217
[34] Guo, J., Ma, X., Sansom, A., McGuire, M., Kalaani, A., Chen, Q., et al. (2020) Spanet: Spatial Pyramid Attention Network for Enhanced Image Recognition. 2020 IEEE International Conference on Multimedia and Expo (ICME), London, 6-10 July 2020, 1-6. https://doi.org/10.1109/ICME46284.2020.9102906
[35] Li, W., Lai, C. and Zhu, J. (2020) Multi-Layer Features Fusion Strategy with GIoU Loss for Siamese Network Tracking. The International Conference on Natural Computation, Fuzzy Systems and Knowledge Discovery, Xi’an, 1-3 August 2020, 1611-1619. https://doi.org/10.1007/978-3-030-70665-4_175
[36] Zheng, Z., Wang, P., Liu, W., Li, J., Ye, R. and Ren, D. (2020) Distance-IoU Loss: Faster and Better Learning for Bounding Box Regression. Proceedings of the AAAI Conference on Artificial Intelligence, 34, 12993-13000. https://doi.org/10.1609/aaai.v34i07.6999
[37] 肖博健, 万烂军, 陈俊权. 采用YOLOV5模型的口罩佩戴识别研究[J]. 福建电脑, 2021, 37(3): 35-37.