共查询到20条相似文献,搜索用时 125 毫秒
1.
2.
3.
高光谱成像的图谱特征与卷积神经网络的名优大米无损鉴别 总被引:1,自引:0,他引:1
《光谱学与光谱分析》2020,(9)
名优大米含有更多的营养价值与更高的经济价值,不法商家为赚取更多利益,对优质大米掺假甚至以次充好,损害了消费者利益和大米贸易,打击了生产者的生产积极性。希望发展一种基于高光谱成像的图谱特征与深度学习网络的名优大米无损鉴别方法。首先,采集了全国具有代表性的七种名优大米400~1 000 nm范围高光谱图像,并提取了每种大米的光谱、纹理与形态特征。使用多元散射校正算法做光谱预处理消除光谱散射。连续投影算法(SPA)、竞争自适应重加权算法(CARS)以及两者级联方法(CARS-SPA)被用来选取光谱特征的重要波长;用SPA选择形态、纹理特征的重要变量。最后,使用深度学习网络-卷积神经网络(CNN)融合各类特征构建大米种类识别模型,而K-近邻(KNN)、随机森林(RF)用于与CNN模型相对比。实验结果显示,根据全光谱构建的模型的分类准确度达到80%以上;其中, KNN建模效果最差; RF的效果较好; CNN网络的模型性能最优,训练集的分类准确度(ACC_T)为92.96%,预测集的分类准确度(ACC_P)为89.71%。而重要波长光谱与全光谱相比,分类准确度相差较多。为进一步提升大米种类鉴别的准确度,选用纹理、形态两种图像特征与光谱特征进行融合,最优结果来自光谱与形态特征重要变量所构建的模型。其中, KNN的ACC_T和ACC_P分别为69%和67%; RF模型的ACC_T=99.98%和ACC_P=89.10%; CNN模型的效果最佳, ACC_T和ACC_P为97.19%和94.55%。此外,光谱与纹理融合的分类效果差于光谱,说明纹理特征弱化了分类结果。对于分类模型来说, CNN的性能明显优于两种机器学习方法,可以提供更好的分类效果。总而言之, CNN融合光谱与形态特征重要变量可实现对名优大米种类的准确鉴别,这种方法有望拓展到其他农产品的分级,种类区分和产地鉴别。 相似文献
4.
新生儿疼痛面部表情识别方法的研究 总被引:3,自引:0,他引:3
针对新生儿的疼痛与非疼痛面部表情识别,提出将Gabor变换和支持向量机(SVM)相结合的分类识别方法.对归一化后的大小为112 pixel×92 pixel的新生儿面部图像进行二维Gabor小波变换,提取出412160维Gabor特征;针对Gabor特征向量维数高、冗余大的特点,采用Adaboost算法作为特征选择工具,去除冗余的Gabor特征,从412160维特征中选取出900维Gabor特征;对选取出的Gabor特征用SVM进行疼痛表情的分类识别.该方法综合运用Gabor特征对于面部表情的良好表征能力、AdaBoost算法的特征选择能力以及SVM在处理少样本、高维数问题中的优势.对510幅新生儿的表情图像进行测试的结果表明,疼痛与非疼痛表情的分类识别率达到85.29%,疼痛与安静表情的分类识别率达到94.24%,疼痛与哭表情的分类识别率达到78.24%. 相似文献
5.
传统表情识别技术采用单一类型的特征表示方法,由于每个特征类型对不同数据集的表示效果存在差异,导致传统技术对不同数据集的表情识别效果也存在较大的差异。设计一种多类型混合特征的选择方案,用以提高不同数据集的表情识别准确率。将面部不同区域、不同类型的特征集作为基础特征集,利用重引力搜索算法从基础特征集中选择优化的特征子集。将优化的特征子集输入深度信念网络进行训练和半监督学习,采用训练的网络模型对表情进行识别。实验结果表明,在不同数据集条件下,采用该方法均能够保持较高的识别准确率。 相似文献
6.
7.
8.
9.
为了提高对复杂场景下多尺度遥感目标的检测精度,提出了基于多尺度单发射击检测(SSD)的特征增强目标检测算法.首先对SSD的金字塔特征层中的浅层网络设计浅层特征增强模块,以提高浅层网络对小目标物体的特征提取能力;然后设计深层特征融合模块,替换SSD金字塔特征层中的深层网络,提高深层网络的特征提取能力;最后将提取的图像特征与不同纵横比的候选框进行匹配以执行不同尺度遥感图像目标检测与定位.在光学遥感图像数据集上的实验结果表明,该算法能够适应不同背景下的遥感目标检测,有效地提高了复杂场景下的遥感目标的检测精度.此外,在拓展实验中,文中算法对图像中的模糊目标的检测效果也优于SSD. 相似文献
10.
11.
基于可见/近红外光谱和深度学习的早期鸭胚雌雄信息无损检测 总被引:1,自引:0,他引:1
胚蛋雌雄识别一直是家禽业发展的瓶颈问题,在禽肉生产过程中倾向于养殖雄性个体,而禽蛋生产产业倾向于养殖雌性家禽。若能在孵化过程中较早鉴别出种蛋的雌雄,不仅能够降低家禽孵化产业的成本,还能够提高禽蛋和禽肉生产行业的经济效益。该文以种鸭蛋为研究对象,为了在种鸭蛋孵化早期实现对种蛋的雌雄识别,构建了可见/近红外透射光谱信息采集系统,在200~1 100 nm的波长范围内采集了345枚孵化了0~8 d的种鸭蛋光谱数据。搭建了适用于种鸭蛋光谱信息的6层卷积神经网络(convolutional neural network, CNN),其中包括输入层、3个卷积层、全连接层与输出分类层。卷积层可以提取光谱中的有效信息,全连接层通过对卷积层提取的局部特征进行整合供输出层分类决策。另外在卷积神经网络中引入局部响应归一化和dropout操作能够加快网络的收敛速度。利用该卷积神经网络构建鸭胚雌雄信息识别网络,通过对比与分析不同孵化天数的识别效果,发现孵化7d的识别效果最佳。随后将孵化7 d的种鸭蛋原始光谱数据进行噪声去除,选取500~900 nm波段用于后续的特征波长选取和建模。分别运用了竞争性自适应重加权算法(CARS)、连续投影算法( SPA)与遗传算法(GA)选择能够区分鸭胚性别的波长点,将选取的特征波长转换为二维的光谱信息矩阵,二维光谱信息矩阵保留了一维光谱的有效信息,同时极大地方便了与卷积神经网络的结合。利用二维光谱信息矩阵和卷积神经网络相结合,实现孵化早期阶段鸭胚的雌雄识别。经检验,基于 SPA算法和CNN网络建立的模型效果较佳,其中训练集、开发集及测试集的准确率分别为93.36%,93.12%和93.83%;基于GA算法和CNN网络建立的模型效果次之,训练集、开发集及测试集的准确率分别为90.87%,93.12%和86.42%;基于CARS算法和CNN网络建立的模型的训练集、开发集及测试集的准确率分别为84.65%,83.75%和77.78%。研究结果表明基于可见/近红外光谱技术和卷积神经网络可以实现孵化早期鸭胚胎雌雄的无损鉴别,为后续相关自动化检测装置的研发提供了技术支撑。 相似文献
12.
13.
14.
针对红外船只图像较模糊导致的识别率低、识别速度慢等问题,提出了一种基于深度卷积神经网络(CNN)的检测算法。首先采用标记分水岭分割算法提取红外船只图像中的连通区域,并对原图相应的目标位置进行标记和归一化处理,提取候选区域。采用改进的AlexNet(一种深度CNN模型)进行船只目标识别,将提取的候选区域送入改进的AlexNet进行特征提取和预测,得到最终检测结果。分水岭方法可大大减少候选区域检测时间,以及减少深度CNN识别时间。利用实验室自制的红外成像系统获取近千张红外船只图像数据,并对其平移缩放形成的数据集进行仿真实验。结果表明,标记分水岭与深度CNN的结合,可有效识别船只目标,所提方法具有良好的性能,能够更加快速准确地识别红外船只目标。 相似文献
15.
《光学学报》2021,41(7):180-189
高光谱图像包含着丰富的光谱信息,单幅RGB重建高光谱图像在军事目标识别和医学诊断领域具有重要价值。传统算法无法对未知相机光谱响应的RGB图像进行重建,针对此问题,本文提出了一种基于改进残差密集网络的重建算法。首先,将改进的残差密集块作为残差密集网络的基本模块,使用自适应权重模块对特征通道进行特征重标定,使高光谱重建精度得到了提高。其次,用特征变换层替代原来网络的空间变换层,将解决图像超分辨率问题转换成解决高光谱重建问题,实现网络从空间维度到光谱维度的转变。实验结果表明:本文所提算法无论是在主观效果上还是在客观评估指标上均优于主流的传统方法和深度学习方法,与稀疏字典方法相比,本文算法的平均相对绝对误差(MRAE)和均方根误差(RMSE)分别下降了46.7%和44.8%。 相似文献
16.
基于胸部X光透射图像(DR)的肺部病灶识别与疾病诊断是临床的常规操作。对于肺结核患者而言,其DR图像中的病灶区域与背景相融性高,目标弥散严重且边缘形态极不规则,严重干扰诊断的准确性。针对上述问题,提出了一种融合肺炎影像学特征的肺结核病灶区域检测网络(TDT-Net),利用肺结核和新冠肺炎同为呼吸道疾病且在DR图像上具有相似表征的特点,借助大量肺炎DR数据,通过迁移学习引入强相关特征以提高肺结核病灶的检测精度。TDT-Net结合Transformer和扩张残差技术,提出上下文感知增强模块,以强化迁移模型对全局信息的建模能力;利用特征细化模块减少迁移过程中引入的冗余信息,凸显强相关特征的表示。实验结果表明,在TBX11K数据集上,所提检测方法的平均准确度(AP)达到87.5%,召回率(Recall)达到80.7%,相较于YOLOV5和RetinaNet等网络有效提升了肺结核病灶的检测精度,实现了更加准确的肺结核病灶定位和分类。 相似文献
17.
目前基于卷积神经网络(CNN)的视网膜光学相干层析成像(OCT)图像分类方法存在对于小范围病变区域识别不清的问题,导致在判断年龄相关性黄斑变性(AMD)疾病干湿性、脉络膜新生血管形成(CNV)的活动性时准确率不高,而正确判断病变类型对于眼科医生制定治疗方案至关重要。为此本文提出了一种基于自注意力机制的CNN模型MobileX-ViT,将传统卷积层和自注意力模块结合,同时提取浅层网络的特征信息并获取图像的全局信息,以提高模型分类准确率。实验证明,相比于经典CNN分类模型Inception-V3、ResNet-50、VGG-16和MobileNeXt,文章提出模型在分类准确率上分别提高了5.6%、5.3%、4.5%和2.8%,证明了模型的有效性,为解决目前视网膜OCT图像分类中对于小范围病变区域识别不清的问题提供了新的方法。 相似文献
18.
19.
针对当前动作识别技术中正确识别率不高,易受到环境变化的影响等问题,提出了一种基于受限玻尔兹曼机与密集采样特征迭代加权融合的动作识别算法。避免单个特征对图像序列的表达力不强,引入了受限玻尔兹曼机(RBM)特征与密集采样(DT)特征分别对行为动作进行特征提取,得到RBM特征和DT特征;定义一种迭代加权函数,将RBM特征与DT特征进行加权融合,形成描述能力更强的RBM-DT特征;基于K-近邻(KNN)算法,对RBM-DT特征进行分类学习,完成动作识别的决策判断。通过在KTH、Hollywood数据集上实验表明:与当前动作识别技术比较,提出的新算法能够有效识别各种行为动作,对各类型动作均具有更高的正确识别率与鲁棒性。 相似文献
20.
针对马铃薯损伤部位随机放置会影响检测精度的问题,提出从正对相机、背对相机及侧对相机三个方向,应用透射和反射高光谱成像技术采集马铃薯图像,进行透射和反射高光谱成像的马铃薯损伤检测比较研究。对透射和反射高光谱图像进行独立成分(IC)分析和特征提取,利用所得特征对反射图像进行二次IC分析,对透射和反射光谱进行变量选择,最终分别建立基于反射图像、反射光谱、透射光谱的马铃薯损伤定性识别模型;对识别准确率高的模型做进一步优化,采用子窗口排列分析(SPA)算法对透射光谱的特征做二次选择得到3个光谱变量,并建立任意放置的马铃薯损伤识别最优模型。试验结果表明,基于反射图像、反射光谱建立的模型识别准确率较低,其中基于反射图像的马铃薯碰伤,侧对相机识别准确率最低为43.10%;基于透射光谱信息建立的模型识别准确率较高,损伤部位正对、背对相机的识别准确率均为100%,侧对相机为99.53%;马铃薯损伤识别最优模型对任意放置的损伤识别准确率为97.39%。应用透射高光谱成像技术可以检测任意放置方向下的马铃薯损伤,该研究可为马铃薯综合品质的在线检测提供技术支持。 相似文献