基于Faster RCNN模型的鸡胴体表皮破损缺陷高光谱图像检测方法研究
Detection of Chicken Carcass Defects in Hyperspectral Images Based on the Faster RCNN Model Research on Hyperspectral Image Detection Method of Chicken Carcass Skin Damage Defect Based on Faster RCNN Model
DOI: 10.12677/mos.2024.133277, PDF, HTML, XML, 下载: 44  浏览: 66  科研立项经费支持
作者: 张宇康, 段留奎, 袁程勋, 王慧慧, 张 旭*:大连工业大学机械工程与自动化学院,辽宁 大连
关键词: 表皮破损缺陷高光谱检测Faster RCNN鸡胴体Skin Damage Defects Hyperspectral Imaging Detection Faster RCNN Chicken Carcass
摘要: 鸡胴体缺陷自动检测十分必要。针对鸡胴体表皮划伤、表皮剥落、断骨露出等体表破损类型缺陷难以通过机器视觉有效辨别的问题,提出一种高光谱技术结合深度学习的检测方法。先用竞争性自适应重加权算法(Competitive Adaptive Reweighted Sampling algorithm, CARS)对鸡胴体高光谱图像进行降维并提取特征波段。接着对所有特征波段图像进行主成分分析(Principal Component Analysis, PCA),选贡献率前三的主成分图像合成假彩图并构造鸡胴体伪彩图数据集,构建基于Faster RCNN模型的鸡胴体缺陷检测方法,并利用鸡胴体数据集对模型进行训练和测试。结果表明,鸡胴体表皮划伤、表皮剥落、断骨露出三种缺陷检测的Precision分别为84.5%、83.7%、87.7%,模型的mAP为82.7%,鸡胴体表皮破损类缺陷的高光谱检测方法是可行的。
Abstract: Automatic detection of chicken carcass defects is highly necessary. In response to the difficulty in effectively identifying surface damage types such as scratches, skin peeling, and exposed bone fractures on chicken carcasses through machine vision, a detection method combining hyperspectral technology with deep learning is proposed. Firstly, the Competitive Adaptive Reweighted Sampling algorithm (CARS) is used to reduce the dimensionality of hyperspectral images of chicken carcasses and extract feature bands. Then, principal component analysis (PCA) is applied to all feature band images, and the top three principal component images with the highest contribution rates are synthesized into pseudo-color images to construct a dataset for chicken carcass pseudo-color images. A Faster RCNN model for detecting defects in chicken carcasses is constructed and trained and tested using the chicken carcass dataset. The results indicate that the precision for detecting scratches, skin peeling, and exposed bone fractures on chicken carcasses are 84.5%, 83.7%, and 87.7% respectively. The model achieves an mAP of 82.7%. The hyperspectral detection method for skin damage defects on chicken carcasses is deemed feasible.
文章引用:张宇康, 段留奎, 袁程勋, 王慧慧, 张旭. 基于Faster RCNN模型的鸡胴体表皮破损缺陷高光谱图像检测方法研究[J]. 建模与仿真, 2024, 13(3): 3033-3041. https://doi.org/10.12677/mos.2024.133277

1. 引言

鸡肉肉质鲜美,营养丰富,目前已是全球消费量第二大的肉类 [1] 。肉鸡加工过程极易造成鸡胴体外观产生缺陷,目前鸡胴体缺陷大部分依赖于人工检测,效率较低且易造成漏检和错检,阻碍整个加工生产线自动化的实现,准确地检测鸡胴体的外观缺陷就很有必要。

近年来,机器视觉的快速发展,为鸡胴体的品质检测提供了快速的检测方法。机器视觉已用于肉鸡皮炎检测 [2] ,流感病毒监控 [3] ,体重预测 [4] 等方面,这些研究的共同点是利用了胴体图像中颜色、形状、姿态等特征来做检测辨别缺陷。但仍有些影响鸡胴体外观完整性的缺陷,如表皮划伤、表皮剥落和断骨露出等,不易被机器视觉检测。鸡在运输和屠宰过程中受到撞击与挤压作用,经常会造成胴体表皮损伤,主要表现为表皮被划伤、部分表皮剥落,骨头折断并刺破表皮露出断骨等,而表皮与肉的颜色相近,骨髓与血污的颜色相近,传统机器视觉方法易造成误判,导致检测效果不理想 [5] 。高光谱检测技术可利用光谱信息反映被测对象的物质组成、结构和属性等 [6] ,这一特点已被应用于诸如鸡胴体表面血污 [7] 、肉内碎骨 [8] 等的畜禽类原料皮、肉、骨的辨别。进一步的,为了有效利用大量、高维的高光谱数据,卷积神经网络逐渐被引入高光谱检测技术 [9] ,并在红肉掺假 [10] 、禽肉中异物 [11] 和区分新鲜牛肉与冻融牛肉 [12] 等肉类加工质量的检测中,证明了高光谱技术结合深度学习的可行性。

本文旨在将深度学习与高光谱技术相结合,以检测鸡胴体表皮划伤、表皮剥落和断骨露出缺陷。主要贡献如下:1) 利用CARS对采集到的鸡胴体图像进行降维,得到特征波段及其对应的波段图像。再用图像PCA方法对特征波段的图像进行分析,并合成鸡胴体伪彩图,用于后续模型训练和测试。2) 建立了基于Faster RCNN的鸡胴体缺陷检测模型,利用鸡胴体缺陷数据集对模型进行训练和测试。

2. 材料与方法

2.1. 材料与设备

选取生产线经人工检测到有表皮划伤,表皮剥落,断骨露出缺陷的鸡胴体留作样品,一共得到了466只鸡胴体样品。将鸡胴体悬挂于屠宰线上,背景为黑色幕布,利用2个投射式聚光灯为其照明,高光谱系统采集鸡胴体正反两面,最终得到932张高光谱图像数据用于后续建模。

2.2. 高光谱数据预处理

高光谱成像系统在成像过程中由于受到电流稳定性,光源摆放位置与光强的影响,图像会产生暗电流和噪声。为了减少上述干扰,提升成像质量,需要对高光谱图像进行黑白校准。关闭灯光、盖上相机镜头盖采集黑色校准图像,将校准白布放置在镜头下采集白色校准图像。使用公式(1)进行校准,

I ref = I B W B (1)

其中, I ref 是校准后的数据,I是原始图像,B是黑色校准图像,W是白色校准图像。

使用ENVI软件在校准后的图像上提取感兴趣区域,用1.5 × 1.5 cm2的矩形框选取鸡胴体高光谱图像中鸡肉、鸡皮、鸡骨作为感兴趣区域(ROI),ROI的光谱反射值用于后续的光谱分析。

2.3. 数据集制作

高光谱图像具有大量的冗余信息,必须采用有效的方法去除冗余干扰保留有效信息。主成分分析不仅可以消除原始数据中的无用噪声,还可以提取包含大部分信息的主成分图像,因此常用于高光谱图像的降维 [13] 。基于光谱的主成分分析得到的数据不是图像,不能满足鸡胴体缺陷检测的定位要求。直接对高光谱数据做图像主成分分析速度太慢,因此采用CARS先对高光谱数据进行降维提取特征波段,再对特征波段图像进行主成分分析,这可以显著减少计算量。CARS是一种用于高光谱成像技术的降维方法,该算法基于达尔文自然选择理论选择光谱特征波段,可以根据数据特征自动调整降维过程中的权值和参数,从而有效提取高光谱数据中的关键信息。

对CARS选择的所有特征波段对应的单通道图像做主成分分析。PCA算法通过计算图像的相关矩阵得到每幅图像的特征值,PC图像根据各自的特征值和每张图像的累计贡献率进行排序,选取具有较高累积贡献率的前三幅主成分图像合成伪彩色图像。使用LabelImg对图像进行标注,从而制作鸡胴体伪彩色图数据集,用于后续模型训练和测试。

2.4. 构建Faster RCNN鸡胴体缺陷检测模型

Faster RCNN是一种高效的目标检测算法,具有较高的准确性和效率。模型结构如图1所示。其模型结构主要分为特征提取网络,区域建议网络和检测网络。特征提取网络通常是由一系列特征层,池化层,全连接层和激活函数层交叠而成,用于提取鸡胴体图像的特征并生成特征图,这些特征图不仅包含了图像的全局信息,也包含了局部的细节特征。区域建议网络是Faster RCNN网络模型核心部分,其结构是由卷积层和Proposal网络组成。区域建议网络在特征图上滑动生成一系列候选框,这些候选框可能包含了鸡胴体缺陷目标,对候选框进行筛选,输出将可能包含目标的候选框及其类别信息。预测网络将区域建议网络的每个候选框映射到特征图中,并作进一步的特征提取;提取的特征进行分类和回归,预测出缺陷目标的类别和位置坐标信息。

Figure 1. Structure of the Faster RCNN chicken carcass defect detection model

图1. Faster RCNN鸡胴体缺陷检测模型结构

利用2.3节标注好的鸡胴体缺陷数据集对模型进行训练和测试,从而完成Faster RCNN鸡胴体缺陷检测模型的构建。模型训练所用环境为Window 11系统,显卡为NVIDIA GeForce RTX3050,内存16G,深度学习框架为Pytorch 1.13,采用随机初始化的权重初始化方法,使用随机梯度下降算法SGD实现模型的优化。学习率设置为较高的1 × e−4。当模型训练迭代50次之后,以每代0.93的比值进行衰减,继续训练50代后模型趋于稳定。

2.5. 评价指标

为了对模型提供客观和全面的评价,使用召回率(Recall)、精确度(Precision)、平均精确度(Average Precision, AP)和全类平均精确度(mean Average Precision, mAP)作为评价指标评估模型性能。其中AP是精度–召回率(PR)曲线(召回率为横轴,精度为纵轴)所包围的面积。Precision是指在所有识别目标中真阳性的比例。Recall是指正确识别的目标在所有该实际目标中的比例。MAP是各类别的AP的平均值,是一个综合性能指标,较高的MAP值表明模型的检测性能更加稳定。

3. 结果与讨论

3.1. 光谱分析

光谱曲线是表示不同物质在近红外光频率下的光谱响应,这是因为物质内分子或化合物中的特定官能团吸收近红外光特定频率的光能 [14] 。绘制鸡皮、鸡肉和鸡骨ROI的平均光谱曲线如图2所示。3种物质的光谱曲线先下降到410 nm,然后开始上升。中间540 nm和575 nm处有两个小的吸收峰。540 nm和575 nm处的吸收峰与脱氧肌红蛋白密切和氧合肌红蛋白相关 [15] 。从580 nm到最高点开始急剧上升。从725 nm到1020 nm,三条曲线开始缓慢下降。鸡皮和鸡肉在750 nm处的吸收峰是由于蛋白质和脂肪的C-H和C-O基团振动造成的吸收峰。鸡皮和鸡骨的吸收峰在985 nm处,为胶原蛋白的吸收峰 [16] 。鸡肉和鸡皮的光谱曲线相似,这是由于它们具有相同的化学成分。但由于蛋白质、水、脂肪等主要成分含量不同,光谱反射率也不同。鸡骨在580 nm前的光谱曲线与另外两种相似。这可能是因为骨折的表面被血液覆盖,血液中含有肌红蛋白。在580 nm之后,趋势就大不相同了,这可能是因为鸡骨头主要由矿物质组成,胶原蛋白和脂肪含量较少。

Figure 2. Spectral curves of chicken meat, skin, and bone

图2. 鸡肉,鸡皮和鸡骨的光谱曲线

3.2. 特征波段选择结果

本研究的高光谱波长范围为380.2~1020.2 nm,覆盖360个波段。图3为CARS算法提取的28个特征波长,在400 nm~650 nm范围共选择了16个波段。在550 nm的吸收峰中附近CARS有548.5和546.7 nm波段,550 nm左右的吸收峰与血红蛋白、肌红蛋白等血红素的吸收有关。此外,蛋白质的吸收峰和脂肪的C-H拉伸泛音在750 nm附近存在740.4 nm和760.2 nm两个特征波长。在900~1020 nm范围内,CARS有6个特征波段,其中CARS选择的982、975.0 nm波段在吸收峰970 nm附近,970 nm附近的吸收带是由于O-H拉伸振动引起的第二泛音带造成。CARS算法使用较少的特征波段基本上覆盖光谱曲线的波峰和波谷,且提取的特征波段含有大量的ROI区域的物质理化信息,这表明CARS所提取的特征波段及其波段图像保留了大量的有效信息。

Figure 3. Schematic diagram of feature bands extracted by CARS

图3. CARS提取的特征波段示意图

3.3. 鸡胴体缺陷伪彩图合成结果

通过主成分分析对CARS的特征波段图像进行二次降维。在得到的主成分图像的基础上合成伪彩图,实现鸡胴体缺陷的目标定位。如表1所示PC图像根据各自的特征值和图像的累计贡献率进行排序,从表中可以看出,前3张PC图像代表了原始图像信息的96.7%。选择累积贡献率最高的前三幅主成分图像(图4(a)~(c)进行合成,生成假彩色图像(图4(d))。与主成分图像(图4(a))相比,伪彩色图像有效地消除了鸡胴体在背景下因光照而产生的阴影,这增强了鸡胴体与背景的颜色对比。通过将主成分图像映射到红色(R)、绿色(G)和蓝色(B)颜色通道创建的伪彩色图像,与灰度主成分图像相比,提供了更生动的颜色信息显示。伪彩色图像增强了鸡胴体缺陷的详细信息的表达,提高了鸡胴体与背景的区分能力。

Table 1. Principal component analysis results of chicken carcass images

表1. 鸡胴体图像的主成分分析结果

Figure 4. Pseudo-color image synthesis process

图4. 伪彩图合成过程

3.4. Faster RCNN检测模型结果

使用Recall、Precision、AP和mAP对Faster RCNN鸡胴体缺陷检测模型进行评价,实验结果如表2所示。从表2可以看出Faster RCNN模型对所有缺陷的检测AP都高于0.81,这表明该模型对三类缺陷的检测稳定性和准确性都有较好的表现。其中对断骨露出缺陷的检测效果要于对表皮划伤和表皮剥落,其AP值达到了84%。这可能是因为相比与另外两个缺陷,断骨露出的特征要更加明显。Recall指的是对于某一类目标,模型是否能够完整地检测到所有的目标,表皮划伤与表皮剥落容易发生混淆,所以各自的Recall要低于断骨露出86.9%。模型的mAP代表模型的整体检测精度,本模型的mAP达到了82.7%,检测效果较好。

Table 2. Detection results of Faster RCNN for defects in chicken carcasses

表2. Faster RCNN鸡胴体缺陷检测结果

模型的检测效果如图所示,在图5(a)上,Faster RCNN模型可以准确的分辨出缺陷为表皮划伤缺陷,且在图5(b)和图5(d)上能够将易漏检的表皮划伤缺陷全部检测出。这表明模型的特征提取网络具有较好的特征提取能力,对纹理接近周围表皮的划伤缺陷和在鸡胴体光照强度较大处的表皮剥落缺陷也能提取出较深层次的语义特征,且对其位置和大小框定准确。

Figure 5. The result of detection

图5. 检测结果

4. 结论

本文针对鸡胴体表皮划伤、表皮剥落、断骨露出的体表破损类型缺陷难以通过机器视觉有效辨别的问题,提出了一种高光谱成像技术结合深度学习模型的检测方法。首先对鸡胴体缺陷处的肉、皮、骨的光谱进行分析,发现成肉、皮、骨光谱曲线在水、脂肪,蛋白质吸收峰附近是有明显差异,这些吸收峰与皮、肉、骨的材料相关,通过高光谱辨识和检测缺陷是可行的。然后利用竞争性自适应重加权算法对鸡胴体高光谱图像进行降维并提取特征波段;对这些特征波段利用主成分分析,将主成分分析图合成伪彩图,以此为基础构建了鸡胴体缺陷数据集。最后构建基于Faster RCNN鸡胴体缺陷检测模型,利用数据集对模型进行训练和测试,实验结果表明,基于Faster RCNN鸡胴体缺陷检测模型可以对鸡胴体的表皮剥落、表皮划伤和断骨露出实现准确检测,检测准确率分别为83.7%、84.5%、87.7%,模型的mAP达到了82.7%。本文研究为鸡胴体缺陷的检测提供了一种新颖的解决方案,为相关领域的进一步研究提供了重要参考。

基金项目

本项目受国家重点研发计划项目(2021YFD2100801)资助。

NOTES

*通讯作者。

参考文献

[1] Nyalala, I., Okinda, C., Makange, N., Korohou, T., Chao, Q., Nyalala, L. and Chao, L. (2021) On-Line Weight Estimation of Broiler Carcass and Cuts by a Computer Vision System. Poultry Science, 100, 101474.
https://doi.org/10.1016/j.psj.2021.101474
[2] 吴江春, 王虎虎, 徐幸莲. 基于机器视觉的鸡胴体原发性皮炎快速检测[J]. 食品科学, 2023, 44(20): 350-356.
[3] Okinda, C., Lu, M., Liu, L., Nyalala, I., Muneri, C., Wang, J. and Shen, M. (2019) A Machine Vision System for Early Detection and Prediction of Sick Birds: A Broiler Chicken Model. Biosystems Engineering, 188, 229-242.
https://doi.org/10.1016/j.biosystemseng.2019.09.015
[4] Mortensen, A.K., Lisouski, P. and Ahrendt, P. (2016) Weight Prediction of Broiler Chickens Using 3D Computer Vision. Computers and Electronics in Agriculture, 123, 319-326.
https://doi.org/10.1016/j.compag.2016.03.011
[5] Wu, X., Liang, X., Wang, Y., Wu, B. and Sun, J. (2022) Non-Destructive Techniques for the Analysis and Evaluation of Meat Quality and Safety: A Review. Foods, 11, Article 3713.
https://doi.org/10.3390/foods11223713
[6] Signoroni, A., Savardi, M., Baronio, A. and Benini, S. (2019) Deep Learning Meets Hyperspectral Image Analysis: A Multidisciplinary Review. Journal of Imaging, 5, Article 52.
https://doi.org/10.3390/jimaging5050052
[7] Kang, R., Yang, K., Zhang, X.X., Wu, W. and Chen, K.J. (2016) Development of Online Detection and Processing System for Contaminants on Chicken Carcass Surface. Applied Engineering in Agriculture, 32, 133-139.
https://doi.org/10.13031/aea.32.11200
[8] Lim, J., Lee, A., Kang, J., Seo, Y., Kim, B., Kim, G. and Kim, S.M. (2020) Non-Destructive Detection of Bone Fragments Embedded in Meat Using Hyperspectral Reflectance Imaging Technique. Sensors, 20, Article 4038.
https://doi.org/10.3390/s20144038
[9] LeCun, Y., Bengio, Y. and Hinton, G. (2015) Deep Learning. Nature, 521, 436-444.
https://doi.org/10.1038/nature14539
[10] Al-Sarayreh, M.M. Reis, M., Qi Yan, W. and Klette, R. (2018) Detection of Red-Meat Adulteration by Deep Spectral—Spatial Features in Hyperspectral Images. Journal of Imaging, 4, Article 63.
https://doi.org/10.3390/jimaging4050063
[11] Campos, R.L., Yoon, S.-C., Chung, S. and Bhandarkar, S.M. (2023) Semisupervised Deep Learning for the Detection of Foreign Materials on Poultry Meat with Near-Infrared Hyperspectral Imaging. Sensors, 23, Article 7014.
https://doi.org/10.3390/s23167014
[12] Pu, H., Yu, J., Sun, D.-W., Wei, Q., Shen, X. and Wang, Z. (2023) Distinguishing Fresh and Frozen-Thawed Beef Using Hyperspectral Imaging Technology Combined with Convolutional Neural Networks. Microchemical Journal, 189, Article ID: 108559.
https://doi.org/10.1016/j.microc.2023.108559
[13] Ye, M.C., Ji, C.X., Chen, H., Lei, L., Lu, H.J. and Qian, Y.T. (2020) Residual Deep PCA-Based Feature Extraction for Hyperspectral Image Classification. Neural Computing & Applications, 32, 14287-14300. .
https://doi.org/10.1007/s00521-019-04503-3
[14] Khojastehnazhand, M., Khoshtaghaza, M.H., Mojaradi, B., Rezaei, M., Goodarzi, M. and Saeys, W. (2014) Comparison of Visible-Near Infrared and Short Wave Infrared Hyperspectral Imaging for the Evaluation of Rainbow Trout Freshness. Food Research International, 56, 25-34.
https://doi.org/10.1016/j.foodres.2013.12.018
[15] Fan, N.Y., Liu, G.S., Zhang, J.J., Zhang, C., Yuan, R.R. and Ban, J.J. (2021) Hyperspectral Model Optimization for Protein of Tan Mutton Based on Box-Behnken. Spectroscopy and Spectral Analysis, 41, 918-923.
[16] Wang, H.H., Zhang, S.L., Li, K., Cheng, S.S. and Zhang, X. (2017) Non-Destructive Detection of Ready-to-Eat Sea Cucumber Freshness Based on Hyperspectral Imaging. Spectroscopy and Spectral Analysis, 37, 3632-3640.