首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   1篇
  免费   1篇
无线电   2篇
  2023年   1篇
  2022年   1篇
排序方式: 共有2条查询结果,搜索用时 0 毫秒
1
1.
针对现有煤矸分选方法存在模型复杂、实时性差、特征易丢失等问题,构建了一种轻量化煤矸分选网络GC-ResNet18。GC-ResNet18利用幽灵卷积(ghost convolution, GC)线性生成ghost映射的特性,剔除煤和矸石相似性特征的冗余信息。借助Softpool的下采样激活映射,保留、凸显煤和矸石的特征信息并去除冗余参数,防止过拟合现象。引入GC自注意力机制,融合SENet的轻量化和NLNet长距离信息全局捕获的优势,使网络记忆、放大煤矸图像间的细微差异特征,提升煤矸图像的识别准确率。实验结果表明,GC降低了46.6%的参数量,GC自注意力机制在CIFAR10、CIFAR100上分别提升1.44%、2.32%的准确率,而Softpool池化在上述两个数据集中分别提升了0.22%、0.17%。通过对比实验,全面改进后的GC-ResNet18网络在训练效率和分类精度上优于VGG19-S-GDCNN、SBP-VGG-16等模型,在CIFAR10和CIFAR100数据集中的分类精度与同规模的网络相比均达到最优的94.07%和74.95%,并最终在自建煤矸数据集上达到了97.2%...  相似文献   
2.
面向CNN模型图像分类任务的高效激活函数设计   总被引:1,自引:0,他引:1       下载免费PDF全文
杜圣杰  贾晓芬  黄友锐  郭永存  赵佰亭 《红外与激光工程》2022,51(3):20210253-1-20210253-9
激活函数(Activation Functions,AF)对于卷积神经网络学习、拟合复杂函数模型来说具有十分重要的作用,为了使神经网络能更好更快的完成各类学习任务,设计了一种新型高效激活函数EReLU。EReLU通过引入自然对数函数有效缓解了神经元“坏死”和梯度弥散问题,通过分析激活函数及其导函数在前馈和反馈过程中的作用对EReLU函数的数学模型探索设计,经测试确定EReLU函数的具体设计方案,最终实现了提升精度和加速训练的效果;随后在不同网络和数据集上对EReLU进行测试,结果显示EReLU相较于ReLU及其改进函数精度提升0.12%~6.61%,训练效率提升1.02%~6.52%,这有力地证明了EReLU函数在加速训练和提升精度方面的优越性。  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号