排序方式: 共有2条查询结果,搜索用时 0 毫秒
1
1.
针对现有煤矸分选方法存在模型复杂、实时性差、特征易丢失等问题,构建了一种轻量化煤矸分选网络GC-ResNet18。GC-ResNet18利用幽灵卷积(ghost convolution, GC)线性生成ghost映射的特性,剔除煤和矸石相似性特征的冗余信息。借助Softpool的下采样激活映射,保留、凸显煤和矸石的特征信息并去除冗余参数,防止过拟合现象。引入GC自注意力机制,融合SENet的轻量化和NLNet长距离信息全局捕获的优势,使网络记忆、放大煤矸图像间的细微差异特征,提升煤矸图像的识别准确率。实验结果表明,GC降低了46.6%的参数量,GC自注意力机制在CIFAR10、CIFAR100上分别提升1.44%、2.32%的准确率,而Softpool池化在上述两个数据集中分别提升了0.22%、0.17%。通过对比实验,全面改进后的GC-ResNet18网络在训练效率和分类精度上优于VGG19-S-GDCNN、SBP-VGG-16等模型,在CIFAR10和CIFAR100数据集中的分类精度与同规模的网络相比均达到最优的94.07%和74.95%,并最终在自建煤矸数据集上达到了97.2%... 相似文献
2.
激活函数(Activation Functions,AF)对于卷积神经网络学习、拟合复杂函数模型来说具有十分重要的作用,为了使神经网络能更好更快的完成各类学习任务,设计了一种新型高效激活函数EReLU。EReLU通过引入自然对数函数有效缓解了神经元“坏死”和梯度弥散问题,通过分析激活函数及其导函数在前馈和反馈过程中的作用对EReLU函数的数学模型探索设计,经测试确定EReLU函数的具体设计方案,最终实现了提升精度和加速训练的效果;随后在不同网络和数据集上对EReLU进行测试,结果显示EReLU相较于ReLU及其改进函数精度提升0.12%~6.61%,训练效率提升1.02%~6.52%,这有力地证明了EReLU函数在加速训练和提升精度方面的优越性。 相似文献
1